Imprimer
Autres documents liés

Rapport | Doc. 14844 | 19 mars 2019

Médias sociaux: créateurs de liens sociaux ou menaces pour les droits humains?

Commission de la culture, de la science, de l'éducation et des médias

Rapporteur : M. José CEPEDA, Espagne, SOC

Origine - Renvoi en commission: Doc. 14184, Renvoi 4264 du 23 janvier 2017. 2019 - Deuxième partie de session

Résumé

Les médias sociaux font partie de notre vie quotidienne. Ils jouent un rôle important dans l’établissement de liens sociaux, offrent une tribune pour un débat libre sur les affaires politiques et la société, et peuvent contribuer à une plus grande diversité des opinions et à une participation démocratique accrue. Leur utilisation abusive peut toutefois entraîner de nombreuses conséquences préjudiciables, affectant les droits individuels et le fonctionnement des institutions démocratiques. Le filtrage d'informations, l'exploration de données, le profilage et le micro-ciblage, assistés par des systèmes d'intelligence artificielle de plus en plus puissants, risquent de porter atteinte à la dignité humaine et d'ouvrir la voie à la manipulation cachée du comportement individuel ou de l'opinion publique.

Les pouvoirs publics et les sociétés de l’internet devraient unir leurs forces pour défendre fermement la liberté d'expression et d'information, mettre un terme à la diffusion de contenus illégaux et garantir la qualité des informations. Une plus grande transparence des algorithmes et une information adéquate des usagers sur leur fonctionnement seront nécessaires. L’Assemblée parlementaire devrait encourager la ratification de la convention modernisée du Conseil de l’Europe pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel, afin de renforcer les lois sur la protection des données, tandis que les grandes entreprises de l’internet devraient repenser leurs modèles économiques pour redonner aux utilisateurs le contrôle de leurs données personnelles.

A. Projet de résolution 
			(1) 
			Projet
de résolution adopté à l’unanimité par la commission le 4 mars 2019.

(open)
1. L’Assemblée parlementaire apprécie hautement la contribution positive des médias sociaux au bien-être et au développement de nos sociétés. Ils sont des outils indispensables qui permettent de rapprocher les individus et facilitent l’établissement et le développement de nouveaux contacts, jouant ainsi un rôle important dans la construction du capital social. Ils offrent un nouvel espace commun où les questions politiques et les sujets d’intérêt social font l’objet de débats, et où les petits partis, les minorités et les groupes marginaux fréquemment réduits au silence dans les principaux médias traditionnels peuvent diffuser leurs idées et points de vue. Ils peuvent exposer les utilisateurs à des sources d’information et avis plus diversifiés, favoriser la pluralité des opinions nécessaire dans une société démocratique et renforcer la participation démocratique.
2. Malgré l’immense potentiel salutaire que les médias sociaux ont à offrir aux personnes et à nos sociétés, leur utilisation abusive engendre aussi de multiples conséquences néfastes sur nos droits individuels et notre bien-être, sur le fonctionnement des institutions démocratiques et sur le développement de nos sociétés. Il s’agit notamment de la cyberintimidation, du discours de haine et de l’incitation à la violence et à la discrimination, de la cyberprédation, du harcèlement en ligne, de la désinformation et manipulation de l’opinion publique, et de l’influence indue sur les processus politiques, notamment électoraux.
3. Les médias sociaux sont des acteurs essentiels de la régulation du flux d’informations sur internet et leur fonctionnement a des répercussions significatives sur la liberté d’expression, y compris sur la liberté d’information, mais aussi, de manière plus insidieuse, sur le droit à la vie privée. Ces inquiétudes ne sont pas une nouveauté pour l’Assemblée et, par le passé, plusieurs rapports ont cherché à identifier des mesures pour limiter, si ce n’est éliminer, le risque d’abus provoqué par internet dans ces domaines sensibles. Cependant, de récents scandales ont mis en exergue la nécessité d’approfondir l’étude des responsabilités que devraient assumer les médias sociaux à cet égard et du devoir qui incombe aux autorités publiques de veiller au respect plein et entier de ces droits fondamentaux.
4. L’Assemblée estime que les entreprises de médias sociaux devraient repenser et améliorer leurs politiques internes de manière à défendre plus fermement les droits à la liberté d’expression et d’information, en promouvant la diversité des sources, des sujets et des points de vue et une meilleure qualité de l’information, tout en luttant effectivement contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs et en contrant plus efficacement la désinformation.
5. Par ailleurs, l’Assemblée se demande s’il n’est pas désormais nécessaire de remettre en question le modèle économique sur lequel les grandes entreprises de médias sociaux ont bâti leur richesse, sachant que celui-ci repose sur l’acquisition massive de données auprès de leurs utilisateurs ainsi que de leurs connaissances, et sur leur exploitation, dans les faits quasi illimitée, à des fins commerciales. L’exploration de données et le profilage sont des phénomènes qui semblent être allés trop loin au point d’échapper à tout contrôle démocratique.
6. Bien utilisées, les mégadonnées peuvent faciliter l’élaboration de politiques (sur le développement d’infrastructures et l’urbanisation, par exemple) et la prestation de services essentiels (gestion de la circulation routière et soins de santé, par exemple); il est toutefois nécessaire d’assurer l’anonymisation des données et de garantir que seules des inférences raisonnables puissent être déduites des données des utilisateurs.
7. L’Assemblée estime que les pouvoirs publics devraient guider les efforts visant à «garantir la dignité humaine ainsi que la protection des droits de l’homme et des libertés fondamentales de toute personne, et, (…) l’autonomie personnelle, fondée sur le droit de toute personne de contrôler ses propres données à caractère personnel et le traitement qui en est fait» comme énoncé dans le Protocole (STCE no 223) d’amendement à la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108) («la Convention 108 modernisée»). Conformément à l’avis exprimé par les Ministres lors de l’adoption du Protocole susmentionné, l’Assemblée souligne l’importance d’une ratification ou adhésion rapide par le plus grand nombre de Parties afin de faciliter l’élaboration d’un régime juridique global de protection des données au titre de la Convention 108 modernisée.
8. Pour obtenir des résultats, l’Assemblée estime crucial que les opérateurs d’internet et les pouvoirs publics collaborent étroitement. À cet égard, elle accueille avec satisfaction la mise en place de formes de partenariat et de coopération entre les opérateurs d’internet et divers organes du Conseil de l’Europe, notamment l’Assemblée elle-même, et encourage les partenaires concernés à approfondir cette coopération et à engager un dialogue continu et constructif afin de promouvoir des bonnes pratiques et d’élaborer des normes à même de garantir le respect des droits des utilisateurs et un usage des médias sociaux exempt de risques.
9. Par conséquent, l’Assemblée recommande aux États membres du Conseil de l’Europe:
9.1. de respecter pleinement les obligations internationales concernant le droit à la liberté d’expression, notamment celles qui découlent de l’article 10 de la Convention européenne des droits de l’homme (STE no 5), lorsqu’ils développent le cadre juridique de ce droit, et de mettre en place des réglementations nationales imposant aux fournisseurs de médias sociaux de garantir la diversité des vues et des opinions et de ne pas réduire au silence les idées et contenus politiques controversés;
9.2. d’intégrer l'enseignement des compétences informatiques, y compris l'utilisation des médias sociaux, dans les programmes scolaires dès le plus jeune âge;
9.3. d’engager au plus tôt le processus requis par leur législation nationale pour ratifier le Protocole d’amendement à la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel;
9.4. dans l’attente du processus de ratification susmentionné, de réviser, si besoin est, les législations nationales en vigueur afin de s’assurer de leur parfaite conformité avec les principes consacrés par la Convention 108 modernisée, et en particulier celui de légitimité du traitement de données qui doit avoir pour fondement juridique le consentement valide (et donc aussi éclairé) des utilisateurs ou un autre motif légitime prévu par la loi, ainsi que les principes de transparence et de proportionnalité du traitement de données, de minimisation des données, de respect de la vie privée dès la conception et de respect de la vie privée par défaut; les responsables du traitement, tels que définis à l’article 2 de la Convention 108 modernisée, devraient être tenus de prendre toutes les mesures appropriées afin de garantir les droits des personnes concernées, comme énoncés à son article 9;
9.5. d’encourager et de soutenir les initiatives collaboratives sur la vérification des faits et d’autres améliorations dans les systèmes de modération et de conservation de contenus qui visent à lutter contre la diffusion d’informations trompeuses et mensongères, y compris dans les médias sociaux;
9.6. de se doter des moyens de sanctionner les violations de leur législation nationale et de leurs engagements internationaux qui se produiraient sur les médias sociaux;
9.7. de promouvoir, au sein du Forum sur la gouvernance de l’Internet et du Dialogue européen sur la gouvernance de l’internet, une réflexion sur la possibilité pour la communauté internet d’élaborer, dans le cadre d’un processus collaboratif et s’il y a lieu multipartite un système d’évaluation et d’audit externes visant à déterminer que les algorithmes respectent les principes sur la protection des données et ne sont pas biaisés, ainsi qu’un «label de bonnes pratiques» qui pourrait être octroyé aux opérateurs internet dont les algorithmes sont conçus pour réduire les risques de «bulles de filtrage» et de «chambres d’écho» et favoriser une exposition des utilisateurs pluraliste sur le plan idéologique.
10. L’Assemblée invite l’Union européenne à examiner les moyens d’encourager et de soutenir un projet paneuropéen visant à offrir aux internautes un outil leur permettant de créer, gérer et sécuriser leurs propres espaces de stockage de données personnelles en ligne, à savoir des «POD» (personal online data stores) et à réfléchir à la manière de faire évoluer les dispositions réglementaires nationales et européennes pour garantir que les services en ligne, en particulier les plus courants, proposent à leurs utilisateurs des outils qui respectent les principes sur la protection des données et sont compatibles avec les fonctionnalités des POD.
11. L’Assemblée demande aux entreprises de médias sociaux:
11.1. de définir de manière claire et univoque les normes concernant les contenus admissibles ou non, qui doivent se conformer à l’article 10 de la Convention européenne des droits de l’homme et devraient être accompagnées, le cas échéant, d’explications et d’exemples (fictifs) de contenus dont la diffusion est prohibée;
11.2. de prendre activement part à l’identification des contenus inexacts ou faux qui circulent par leur biais mais aussi d’avertir leurs utilisateurs de tels contenus, même lorsqu’ils ne sauraient être qualifiés d’illégaux ou de préjudiciables et ne sont pas retirés; dans les cas les plus graves, l’avertissement devrait s’accompagner du blocage des fonctions d’interaction tels que les appréciations («J’aime») et les partages;
11.3. de procéder systématiquement à une analyse du réseau afin de repérer des faux comptes et des bots et de mettre au point des procédures et mécanismes visant à exclure de leur contenu «tendance» les messages générés par des bots ou du moins à signaler les comptes concernés et les messages qu’ils republient;
11.4. d’encourager l’évaluation collaborative des sources d’information et des informations diffusées, en développant des outils susceptibles de permettre aux membres de la communauté en ligne de fournir une rétroaction sur l’exactitude et la qualité des contenus qu’ils consultent, et de mettre en place des mécanismes de contrôle éditorial par des professionnels afin de détecter et de signaler ceux qui s’avèrent inexacts ou trompeurs;
11.5. de s’engager résolument dans les initiatives de vérification des faits visant à lutter contre la diffusion d’informations trompeuses et mensongères par le biais des médias sociaux;
11.6. de soutenir et d’adhérer à la Journalism Trust Initiative lancée par Reporters sans frontières et ses partenaires, l’Union européenne de radio-télévision, l’Agence France-Presse et le Global Editors Network;
11.7. de concevoir et d’appliquer des algorithmes qui respectent les principes sur la protection des données et encouragent la pluralité et la diversité des vues et des opinions;
11.8. de promouvoir la visibilité de questions pertinentes au contenu à faible impact émotionnel par rapport aux contenus sans grand intérêt partagés par les déclencheurs émotionnels;
11.9. même en l’absence de règles nationales contraignantes, de respecter les principes inscrits dans la Convention 108 modernisée et de veiller, au moyen de dispositions réglementaires volontaires et du développement de bonnes pratiques, au plein respect des droits des personnes concernées tels qu’énoncés dans son article 9; les mesures positives prises en ce sens devraient notamment:
11.9.1. améliorer la lisibilité des clauses et conditions contractuelles que les utilisateurs doivent accepter, en élaborant par exemple des visuels résumant ces informations sous la forme de tableaux accompagnés de réponses claires aux questions clés liées à la protection de la vie privée;
11.9.2. définir par défaut les règles de confidentialité au plus haut niveau de protection ou, du moins, fournir aux utilisateurs des informations claires et une fonctionnalité conviviale leur permettant de vérifier facilement les règles de protection de la vie privée applicables à leur encontre et de fixer ces paramètres au plus haut niveau de protection;
11.9.3. garantir à leurs utilisateurs le moyen de superviser, évaluer et refuser le profilage, et notamment la possibilité de vérifier les «microcatégories» dans lesquelles ils ont été inclus et de déterminer celles qui ne doivent pas s’appliquer à eux; les utilisateurs devraient aussi être dûment informés des données utilisées par la plateforme pour filtrer et promouvoir les contenus en fonction de leur profil et être en mesure de demander la suppression de données, à moins que le responsable du traitement ne soit soumis de par la loi à une obligation contraire;
11.9.4. veiller à ce que la propriété des comptes de médias sociaux des personnes défuntes soit transmise à leurs proches;
11.9.5. faire en sorte d’assurer progressivement la compatibilité de toutes les fonctionnalités proposées à leurs utilisateurs avec la possibilité pour ces derniers de créer, de gérer et de sécuriser leurs propres espaces de stockage de données personnelles en ligne.

B. Exposé des motifs, par M. José Cepeda, rapporteur

(open)

1. La logique du présent rapport

1.1. L’importance croissante des médias sociaux

1. Les sites de réseaux sociaux en ligne (ou réseaux sociaux) et les médias sociaux font partie des phénomènes qui se développent le plus rapidement au XXIe siècle. À titre d’exemple, Facebook est passé de moins d’un million d’utilisateurs en 2004 à plus de 2,23 milliards d’utilisateurs actifs chaque mois en juin 2018 (avec une augmentation de 100 millions d’utilisateurs actifs mensuels depuis décembre 2017). Si Facebook était une nation, elle serait le pays le plus peuplé sur terre. YouTube suit de près, avec 1,9 milliard d’utilisateurs (soit une augmentation d’environ 300 millions d’utilisateurs en moins d’un an); Instagram (propriété de Facebook) a atteint un milliard d’utilisateurs actifs chaque mois. Le cas de réussite de ces sites colossaux s’accompagne de la popularité grandissante des applications mobiles de réseaux sociaux. Pour ne citer que les deux plus grandes: WhatsApp et Messenger (toutes deux propriétés de Facebook) comptent respectivement 1,5 et 1,3 milliard d’utilisateurs actifs chaque mois 
			(2) 
			Des statistiques régulièrement
mises à jour sur les sites et les applications de réseaux sociaux
les plus populaires sont publiées par Dreamgrow: <a href='https://www.dreamgrow.com/top-15-most-popular-social-networking-sites/'>www.dreamgrow.com/top-15-most-popular-social-networking-sites/</a>..
2. Non seulement nous sommes bien plus nombreux à utiliser ces réseaux sociaux, mais nous passons aussi de plus en plus de temps en ligne. Selon l’Eurobaromètre 
			(3) 
			Eurobaromètre Standard 88
– Automne 2017. L’étude a été menée entre les 5 et 14 novembre 2017
dans les 28 États membres de l’Union européenne, les cinq pays candidats
(la Macédoine du Nord, la Turquie, le Monténégro, la Serbie et l’Albanie),
et la communauté chypriote turque dans la partie nord de Chypre., 65 % des Européens – et 93 % des 15-25 ans – utilisent internet tous les jours ou presque. L’une de nos activités les plus fréquentes en ligne consiste à intervenir sur les réseaux sociaux: 42 % des Européens – et plus de 80 % des 15-25 ans – utilisent tous les jours des réseaux sociaux en ligne. Ces pourcentages n’ont fait qu’augmenter ces dernières années et cette augmentation devrait se poursuivre. En outre, nos enfants commencent à utiliser les médias sociaux de plus en plus tôt dans leur jeune existence.
3. Il ne fait aucun doute qu’internet en général et les médias sociaux en particulier influencent notre manière de rechercher et consulter les informations, de communiquer, de partager des connaissances et de forger et exprimer nos opinions. Ils ont des répercussions significatives à la fois sur nos modes de vie individuels et sur la façon dont nos sociétés se développent.

1.2. La contribution positive des médias sociaux au bien-être de nos sociétés

4. Les médias sociaux, qui à l’origine étaient des sites axés sur les loisirs, sont devenus des plateformes où se déroule aujourd’hui une grande part de l’interaction sociale. Nous les utilisons pour prendre contact avec des amis, des connaissances et des proches, et pour maintenir le lien avec d’autres personnes qui partagent des intérêts communs, ou encore avec des partenaires professionnels. Non seulement les médias sociaux sont devenus des outils indispensables qui aident à rapprocher les gens, mais ils ouvrent également de nouvelles voies de communication et facilitent l’établissement et le développement de nouveaux contacts, augmentant ainsi le nombre de nos connaissances 
			(4) 
			Ellison N.B., Steinfield
C. et Lampe C. (2007). «The benefits of Facebook “friends”: Social
capital and college students’ use of online social network sites». Journal of Computer-Mediated Communication, 12(4), p. 1143-1168.. En d’autres termes, ils jouent un rôle important dans le renforcement du capital social.
5. Une autre tendance de l’évolution des médias sociaux les a amenés à constituer des espaces de diffusion et de consommation d’informations et de nouvelles sur les événements de la vie politique et civile. En plus de partager des photos de leurs vacances ou de parler de leurs loisirs, les utilisateurs échangent des informations et des avis sur leurs gouvernements et les politiques qu’ils annoncent, sur les projets de lois que leurs parlements examinent et sur des questions civiques et de société.
6. Les médias sociaux ne sont plus des espaces de simple distraction et de forums de discussion sur des sujets «légers»; ils sont devenus une extension de l’ancienne sphère publique et offrent un espace commun où les questions civiques et politiques font l’objet de débats. En outre, les médias sociaux ont assumé (du moins en partie) le rôle que les journaux locaux jouaient au XIXe siècle en tant que moyens permettant aux citoyens de s’intégrer à leur communauté locale et d’activer des liens latents 
			(5) 
			Joëlle Swart, Chris
Peters et Marcel Broersma (2018), «Sharing and Discussing News in
Private Social Media Groups», Digital
Journalism..
7. Ces nouvelles sphères publiques jouent un rôle utile sur le terrain politique et civique car elles ont permis aux groupes minoritaires de faire entendre leur voix et leur message. Ainsi que la commission de la culture, de la science, de l'éducation et des médias l’a déjà souligné dans son rapport sur «Internet et la politique: les effets des nouvelles technologies de l’information et de la communication sur la démocratie» (Doc. 13386), internet et les médias sociaux ont mis un terme à l’oligopole de l’information détenu par les médias traditionnels, les institutions et les élites, et ils ont changé en profondeur les paradigmes de la communication et de la diffusion du savoir. «L’information se construit également grâce à l’apport des internautes de tout horizon, indépendamment de leur affiliation politique, de l’appartenance culturelle, de la catégorie socioprofessionnelle, du niveau d’études. Par ailleurs, internet permet non seulement une meilleure intégration au débat public des avis et vues de chacun, mais il favorise la prise de parole sur des sujets peu traités par les médias traditionnels» (paragraphe 11 de l’exposé des motifs).
8. Les médias sociaux offrent une voie utile aux petits partis, minorités et groupes marginaux fréquemment réduits au silence dans les principaux médias traditionnels. Ces acteurs peuvent utiliser les médias sociaux pour diffuser leurs idées et leurs points de vue et pour orienter et stimuler la participation politique. En Espagne, par exemple, Facebook et Twitter sont deux plateformes populaires chez les écologistes et les groupes de défense des droits des animaux, qui s’en servent pour promouvoir des campagnes, sensibiliser le public, mobiliser leurs partisans et accroître la visibilité de leurs actions.
9. Cela signifie aussi que les médias sociaux peuvent exposer les citoyens et les utilisateurs à des sources plus diversifiées d’information et d’opinions, y compris des points de vue politiques et idéologiques que les citoyens n’iraient pas chercher activement ou dont ils ne prendraient pas conscience dans d’autres environnements 
			(6) 
			Bakshy E., Messing
S. et Adamic L.A. (2015). «Exposure to ideologically diverse news
and opinion on Facebook», Science, 348(6239), p. 1130-1132.. Ainsi, les médias sociaux favorisent la pluralité des opinions nécessaire dans une société démocratique. Une autre conséquence bénéfique se produit en termes de participation: les utilisateurs qui sont exposés à une panoplie plus large d’informations, d’opinions et de points de vue sur les événements et les questions de société ont tendance à être plus actifs en termes de participation politique et d’engagement civique non seulement en ligne mais aussi hors ligne 
			(7) 
			Gil de Zúñiga H., Jung
N. et Valenzuela S. (2012). «Social media use for news and individuals'
social capital, civic engagement and political participation», Journal of Computer-Mediated Communication, 17(3), p. 319-336..
10. Même s’il convient de noter que cette conclusion n’est pas confirmée par tous les chercheurs, je partage la conviction de nombreux experts que nous avons entendus selon laquelle les médias sociaux encouragent la participation démocratique: «Les plateformes basées sur internet ont développé ‘l’échelle de participation politique’ en élargissant l’éventail d’activités possibles. Au fond, l’éventail de petites choses que les gens peuvent faire s’est considérablement élargi: poster des soutiens politiques, mettre à jour son statut, partager des contenus de médias, diffuser une opinion sur Twitter, contribuer à des fils de discussion, signer des pétitions électroniques, participer à des campagnes de mails électroniques, télécharger et regarder des vidéos politiques sur YouTube, par exemple. (…) Ces petits gestes politiques ne feraient absolument pas de différence s’ils étaient pris individuellement, mais ils peuvent conduire à des mobilisations à grande échelle» 
			(8) 
			Voir paragraphe 28
du rapport «Internet et la politique: les effets des nouvelles technologies
de l’information et de la communication sur la démocratie», qui
porte sur les avis exprimés par la professeure Helen Margetts dans
le rapport qu’elle a présenté à notre commission (document AS/Cult/Inf
(2013) 04, non publié) après la réunion tenue en mai 2013, à Londres.. Le Comité des Ministres du Conseil de l’Europe soutient la même conviction dans ses Recommandations CM/Rec(2012)4 sur la protection des droits de l’homme dans le cadre des services de réseaux sociaux et CM/Rec(2007)16 sur des mesures visant à promouvoir la valeur de service public de l’Internet.
11. Les médias sociaux peuvent tirer parti de ces répercussions positives sur la participation politique et l’encourager au moyen de campagnes ou d’activités spécifiques. Par exemple, lors des élections présidentielles américaines de 2010 et 2014, Facebook a intégré la fonctionnalité «I voted» (J’ai voté) ce qui a permis aux utilisateurs d’afficher un bouton sur leur mur virtuel pour partager avec leurs contacts qu’ils avaient effectivement pris part à l’élection. Les deux campagnes ont enregistré une hausse de la participation électorale.
12. Cependant, les boutons «J’ai voté» peuvent constituer ou non une fonctionnalité positive, selon qu’ils sont transparents et non biaisés, sont proposés à tous les utilisateurs et affichés de manière identique pour tous. Ils ont à ce jour suscité plus de questions qu’ils n’ont apporté de réponses et sont vivement critiqués par de nombreux analystes. À titre d’exemple, lors des élections américaines, tous les électeurs n’ont pas vu la même chose sur leur fil d’actualité Facebook et les utilisateurs n’ont pas été informés de l’expérimentation (à savoir, examiner si le bouton «J’ai voté» contribue à améliorer le taux de participation). Par ailleurs, l’influence que Facebook (mais aussi d’autres médias sociaux) peut avoir grâce à cet outil ne se limite pas au taux de participation électorale; on peut se demander si Facebook peut potentiellement fausser les résultats des élections simplement en augmentant la participation au sein d’un seul groupe d’électeurs bien précis, en l’occurrence les utilisateurs de ce réseau social 
			(9) 
			Voir
l’article de Hannes Grassegger (en anglais): <a href='https://www.theguardian.com/technology/2018/apr/15/facebook-says-it-voter-button-is-good-for-turn-but-should-the-tech-giant-be-nudging-us-at-all'>Facebook
says its «voter button» is good for turnout. But should the tech
giant be nudging us at all?</a> (publié en ligne le 15 avril 2018)..

1.3. Le côté obscur des médias sociaux et la portée du présent rapport

13. Si les médias sociaux (et internet) ont incontestablement un immense potentiel salutaire à nous offrir, en tant que personnes et aussi à nos sociétés, il est également très clair qu’ils engendrent de multiples conséquences néfastes sur nos droits individuels et notre bien-être, sur le fonctionnement des institutions démocratiques et sur le développement de nos sociétés. Il existe un nombre incalculable de recherches sur les dangers qui résultent de la mauvaise utilisation d’internet et des médias sociaux et du comportement malveillant d’utilisateurs malintentionnés.
14. Malheureusement la liste est longue: guerre informatique, cyberterrorisme, cybercriminalité et cyberfraude, cyberintimidation, discours de haine et incitation à la violence et à la discrimination, cyberprédation, harcèlement en ligne, pédopornographie, désinformation et manipulation de l’opinion publique, influence indue sur les processus politiques, notamment électoraux, etc. Par ailleurs, les comportements individuels déviants entraînent des conséquences autodestructrices, telles que la dépendance (aux jeux ou aux paris en ligne), et des défis dangereux, voire mortels, que relèvent tout particulièrement les jeunes pour obtenir plus de «J’aime» sur leurs comptes. Ces risques et dangers ne sont pas toujours bien perçus ou compris.
15. Le présent rapport n’a pas pour objectif de couvrir un champ de recherche aussi étendu. Il est axé sur le droit à la liberté d’expression, y compris la liberté d’information 
			(10) 
			Aux termes de l’article
10 de la Convention européenne des droits de l’homme (STE no 5),
le droit à la liberté d’expression «comprend la liberté d’opinion
et la liberté de recevoir ou de communiquer des informations ou
des idées sans qu’il puisse y avoir ingérence d’autorités publiques
et sans considération de frontière». Pour le besoin du présent rapport
j’aborderai séparément liberté d’expression et liberté d’information,
tout en reconnaissant qu’elles sont en réalité étroitement imbriquées,
voire qu’il faut le considérer comme les deux faces de la même médaille., et sur le droit à la vie privée. En m’exprimant avec les termes de la Recommandation CM/Rec(2018)2 du Comité des Ministres sur les rôles et les responsabilités des intermédiaires d’internet, il arrive que les médias sociaux – qui sont des intermédiaires d’internet – «contrôlent les contenus et les classent, y compris au moyen de techniques de traitement automatisé des données personnelles et, partant, peuvent exercer certaines formes de contrôle qui influencent l’accès des utilisateurs aux informations en ligne (…), ou encore qu’ils assurent d’autres fonctions qui se rapprochent de celles des éditeurs» (préambule, paragraphe 5).
16. Les médias sociaux, comme acteurs essentiels de la régulation du flux d’informations sur internet ont des répercussions significatives sur les droits à la liberté d’expression, à la liberté d’information et à la vie privée. Ces sujets ne sont pas une nouveauté pour l’Assemblée parlementaire puisque par le passé, plusieurs rapports ont cherché à identifier des mesures pour limiter, si ce n’est éliminer, le risque d’abus dont internet est la cause dans ces domaines sensibles 
			(11) 
			Outre le rapport et
les textes adoptés sur «Internet et la politique: les effets des
nouvelles technologies de l’information et de la communication sur
la démocratie» (cités avant), voir le rapport sur «La protection
de la liberté d’expression et d’information sur l’internet et les
médias en ligne» par la commission de la culture, de la science,
de l’éducation et des médias (Doc. 12874 et <a href='http://assembly.coe.int/nw/xml/XRef/Xref-DocDetails-fr.asp?FileID=18082&lang=fr'>Addendum</a>) ainsi que la Résolution
1877 (2012) et la Recommandation
1998 (2012). La question de la protection de la liberté d’expression
et d’information en ligne est également abordée dans d’autres rapports,
par exemple sous l’angle spécifique de la protection de la liberté
des médias, ou par rapport aux limites de la liberté d’expression
et à la question du contenu illicite distribué sur l’internet.. Je souhaite me pencher à nouveau sur cette question actuelle principalement parce que je suis convaincu qu’il est important d’étudier de plus près les responsabilités que devraient assumer les médias sociaux à cet égard.
17. Il s’agit de savoir si nous, en tant que responsables politiques, devrions exhorter les médias sociaux à renforcer leur autorégulation, afin de combattre de manière plus efficace les menaces qui pèsent sur ces droits humains, et si, en tant que législateurs, nous devrions renforcer le cadre juridique, pour imposer un plus haut niveau d’exigences et des obligations plus strictes aux médias sociaux, afin de garantir la protection efficace de ces droits. Mon analyse se fondera sur les précédents travaux du Conseil de l’Europe 
			(12) 
			Voir, entre autres,
les recommandations du Comité des Ministres suivantes: CM/Rec(2018)2
sur les rôles et les responsabilités des intermédiaires d’internet;
CM/Rec(2014)6 sur un Guide des droits de l’homme pour les utilisateurs d’internet;
CM/Rec(2012)4 sur la protection des droits de l’homme dans le cadre
des services de réseaux sociaux; CM/Rec(2012)3 sur la protection
des droits de l’homme dans le contexte des moteurs de recherche. et de l’Assemblée, ainsi que sur les excellentes contributions des experts entendus par la commission 
			(13) 
			Je remercie tout particulièrement
le professeur Francisco Segado Boj, directeur du Groupe de recherche «Communication
et Société numérique», Universidad Internacional de la Rioja (UNIR),
Espagne, qui est l’auteur du rapport d’expert dont je me suis inspiré
pour mon rapport. Je remercie également l’Ambassadeur Thomas Schneider, Président
du Comité directeur sur les médias et la société de l’information
(CDMSI) du Conseil de l’Europe, ainsi que les experts qui ont participé
à la série d’auditions sur le thème «Société de l’information, démocratie
et droits de l’homme», et notamment: M. Nello Cristianini, professeur
d’intelligence artificielle, Intelligent Systems Laboratory, université
de Bristol, Royaume-Uni; le professeur Jean-Gabriel Ganascia, président
du Comité d’éthique du CNRS (COMETS), université Pierre et Marie
Curie (UPMC); M. Oliver Gray, représentant de l’Alliance européenne
pour l’éthique en publicité (AEEP); M. Thomas Myrup Kristensen,
Directeur général Affaires européennes et Europe du Nord, Facebook,
Chef du bureau de Bruxelles; Mme Victoria Nash,
directrice adjointe, Oxford Internet Institute, université d’Oxford,
Royaume-Uni; M. Marco Pancini, Directeur des politiques publiques
de Google; Mme Sandra Wachter, Juriste
et chercheure universitaire en éthique des données, intelligence
artificielle, robotique et réglementation de l'internet/cyber-sécurité,
Oxford Internet Institute, université d’Oxford, Royaume-Uni..
18. À mon sens le poids ne doit pas être porté seulement par les médias sociaux (et autres opérateurs internet). Les autorités publiques ont également des responsabilités claires dans ce domaine et l’objectif n’est certainement pas de les dégager de ces responsabilités. Les utilisateurs eux-mêmes ont des responsabilités; il faudrait les aider à les comprendre et les épauler comme il se doit.
19. Cependant, les entreprises de médias sociaux sont les acteurs qui ont profité, et profitent encore, des plus grands avantages sur le plan économique; ils ont gagné de fait un énorme pouvoir en tant que régulateurs du flux d’information, sans être suffisamment tenus de rendre compte de la façon dont ils utilisent ce pouvoir. Il convient, selon moi, de revoir et corriger les rôles et les responsabilités des différents acteurs, afin que les autorités publiques, les médias sociaux (et autres opérateurs internet) et les internautes unissent leurs efforts. Nous devons agir ensemble pour défendre nos droits en ligne et veiller à ce que les médias sociaux puissent offrir tous leurs avantages, sans compromettre notre bien-être individuel et social.

2. Liberté d’expression

20. La liberté d’expression est un principe essentiel de la démocratie; elle est, néanmoins, constamment en danger. À chaque fois qu’un nouveau type de média apparaît, les pouvoirs idéologiques, politiques et économiques en place développent des stratégies et exercent des pressions pour contrôler la création et la diffusion de contenu faites par son biais. Cela est arrivé avec la presse, la radio et la télévision, et maintenant aussi avec internet et les médias sociaux. Deux questions clé interconnectées concernant la liberté d’expression et les médias sociaux sont la définition de ses limites et le risque de censure arbitraire.

2.1. Les limites de la liberté d’expression et le problème du contenu illicite

21. Les individus et les organisations doivent avoir le droit de s’exprimer et de diffuser des informations et des opinions par le biais des médias sociaux. Néanmoins, il est communément admis que la liberté d’expression n’est pas absolue, mais qu’elle est en réalité limitée par d’autres droits de l’homme et libertés fondamentales. Aujourd’hui, les questions les plus controversées qui attirent l’attention sur ces limites sont: l’instigation aux comportements criminels, comme la propagande du terrorisme, l’incitation à la violence ou à la discrimination, le discours de haine et le désordre de l’information.
22. S’il est clair que la société et les individus doivent être protégés de ces phénomènes, l’intervention des autorités publiques et des opérateurs internet soulève des questions complexes, se heurte à des obstacles techniques et juridiques, et n’est pas sans risques pour les libertés individuelles. En particulier, même si, dans la plupart des cas, le caractère illicite d’un contenu diffusé par les média sociaux peut paraître évident, définir ce qui est illicite n’est pas toujours simple.
23. Juste à titre d’exemple: même aux États-Unis, où les restrictions à la liberté d’expression ne sont autorisées par le premier amendement à la Constitution que dans des cas exceptionnels, un site de réseau social peut être poursuivi s’il est prouvé qu’il héberge des messages ou des contenus susceptibles d’encourager et de soutenir des actes terroristes ou des organisations terroristes 
			(14) 
			Tsesis A. (2017), «Social
Media Accountability for Terrorist Propaganda», Fordham Law Review, 86, p. 605.. Aucun d’entre nous ne saurait considérer cela comme étrange ou problématique en soi. Cependant, nous savons aussi très bien que le concept même de terrorisme peut être – et a été – utilisé pour renforcer la censure et les représailles à l’encontre de journalistes voire d’internautes. Dans un pays démocratique, il doit être assuré que, comme aux États-Unis, les plateformes de médias sociaux et les fournisseurs d’internet ne peuvent être poursuivis en justice que dans des scénarios spécifiques où des messages incitent clairement à commettre des actes terroristes, recrutent pour des organisations criminelles et encouragent l’endoctrinement 
			(15) 
			Tsesis A. (2017), «Terrorist
speech on social media», Vanderbilt Law
Review, 70, p. 651..
24. Les limites de la liberté d’expression sont censées être définies de manière semblable en ligne et hors ligne. Cependant, la modération des contenus sur les plateformes de médias sociaux pose deux problèmes distincts qui méritent d’être soulignés: d’un côté, l’application des règles en matière de contenus illégaux est bien plus difficile en ligne, en raison du volume considérable d’informations ainsi diffusées mais aussi de l’anonymat des auteurs; d’un autre côté, les accords relatifs aux conditions de service peuvent limiter la publication de contenu juridique sur des médias sociaux. Par conséquent, une question clé est de savoir quelles sont les responsabilités (d’intérêt général) susceptibles d’être imposées aux médias sociaux et dans quelle mesure peut-on réglementer la modération des contenus par les plateformes de médias sociaux. À cet égard, je pense que, dès lors qu’un média social se comporte exactement comme un média traditionnel (fil d’actualités Facebook, par exemple), il doit être soumis aux mêmes règles pour garantir une compétition équitable. La révision de la directive de l’Union européenne «Services de médias audiovisuels» 
			(16) 
			<a href='https://ec.europa.eu/digital-single-market/en/revision-audiovisual-media-services-directive-avmsd'>https://ec.europa.eu/digital-single-market/en/revision-audiovisual-media-services-directive-avmsd</a> (en anglais). est un premier pas dans ce sens.

2.2. Pouvoir de contrôle de l’information diffusée sur les médias sociaux et censure arbitraire

25. La question de la censure étatique arbitraire sort du champ du présent rapport et est régulièrement traitée par la commission dans le cadre de ces rapports sur la liberté des médias et la sécurité des journalistes. Il y a néanmoins un aspect qui est étroitement lié à la thématique du présent rapport, à savoir le fait que les autorités nationales imposent leurs décisions aux intermédiaires d’internet, y compris les médias sociaux, qui sont parfois forcés à devenir complices d’atteintes à la liberté d’expression. Lorsqu’il s’agit de régimes autoritaires (voire dictatoriaux), il est difficile (voire peut-être impossible) de se soustraire aux mesures de contrainte pouvant être exercées par les États; dans ces contextes, nous ne pouvons qu’espérer que les plus puissants intermédiaires d’internet trouvent le moyen d’opérer une résistance discrète afin de contribuer à maintenir, même dans ces pays, quelques espaces de liberté d’expression et d’information.
26. Néanmoins, face aux contenus réellement illicites, pour assurer une protection efficace des droits individuels et du bien commun, les autorités nationales et les initiatives sur la vérification des faits doivent pouvoir compter sur une collaboration sans faille des intermédiaires d’internet et des médias sociaux en particulier. Comme je l’ai souligné avant, le nouveau contexte médiatique donne aux médias sociaux un pouvoir considérable dans la gestion des flux d’information, qui doit être exercé avec une responsabilité commensurable à l’ampleur de ce pouvoir.
27. Les sociétés propriétaires des médias sociaux ont le pouvoir de contrôler toutes les informations qui circulent publiquement par ces canaux, d’en mettre en lumière certaines ou de les cacher, voire de passer sous silence certains sujets ou certaines informations. Ces sociétés ne se contentent pas de fixer les règles concernant ce qui peut être posté et diffusé mais, dans des cas comme celui de Facebook, elles demeurent aussi propriétaires de tous les contenus créés et téléchargés sur la plateforme par les utilisateurs.
28. L’aspect positif de la situation est que les médias sociaux peuvent devenir des alliés des autorités publiques pour détecter, poursuivre et éliminer les contenus illicites. À cet égard, notre Assemblée a déjà incité les médias sociaux et les autres fournisseurs d’accès à internet à agir, par exemple afin de contribuer à lutter contre des phénomènes comme la pédopornographie ou le discours de haine. Mais il y a aussi des aspects négatifs.
29. Un premier problème est que cette collaboration avec les gouvernements peut échapper à tout contrôle démocratique et tourner à des violations graves des droits fondamentaux des utilisateurs, comme cela a été le cas avec les pratiques de surveillance massive et d’intrusions à large échelle révélées en 2013 par M. Edward Snowden 
			(17) 
			Voir le rapport de
la commission des questions juridiques et des droits de l'homme
sur «Les opérations de surveillance massive» (Doc. 13734).. S’il est vrai que, dans de tels cas, la responsabilité incombe surtout aux gouvernements eux-mêmes, les opérateurs d’internet peuvent se rendre complices de ces abus. Cependant, ce n’est pas sur ce problème que je m’attarderai.
30. L’aspect négatif sur lequel je souhaite insister est que les médias sociaux, en établissant et en appliquant leurs règles de modération de contenu, peuvent devenir eux-mêmes des censeurs qui suppriment à leur guise les publications et les informations mises en ligne sur leurs sites, même si celles-ci ne sont pas illégales, ce qui représente une menace pour la liberté d’expression. Il existe de nombreux exemples de cas dans lesquels des déclarations et des photographies ont été supprimées de la page personnelle d’utilisateurs, et ce alors que Facebook et les autres médias sociaux prétendent ne pas jouer de rôle éditorial, ni avoir de responsabilité dans ce domaine. Le fait qu’ils suppriment des contenus peut également avoir des répercussions sur les médias traditionnels. La BBC tient ainsi à jour, depuis 2014, une liste des articles qu’elle a publiés sur internet et qui ont été effacés des résultats de recherche Google à la demande de personnes ou d’entreprises. Il s’agit d’une forme de censure opaque qui ne respecte aucune obligation de rendre compte ni de servir l’intérêt supérieur du public 
			(18) 
			Voir l’information
publiée (en anglais) aux pages: <a href='http://www.bbc.co.uk/blogs/internet/entries/2edfe22f-df3d-4a05-8a65-b2a601532b0d'>www.bbc.co.uk/blogs/internet/entries/2edfe22f-df3d-4a05-8a65-b2a601532b0d</a> and <a href='https://www.wired.co.uk/article/bbc-right-to-be-forgotten'>www.wired.co.uk/article/bbc-right-to-be-forgotten</a>..
31. Dans l’application d’une autorégulation développée dans le but louable de prévenir la diffusion des contenus illicites, des erreurs qui ne sont pas normales surviennent. Dans divers cas, il a été reproché aux sociétés propriétaires des médias sociaux de censurer arbitrairement les contenus; c’est ce qui s’est passé dans le cas du mouvement féministe FEMEN, accusé par Facebook de «promouvoir la pornographie» en raison de l’utilisation de la nudité lors de ses manifestations 
			(19) 
			Almeida
Leite R. et Cardoso G.S. (2015), «A arbitrariedade dos parâmetros
de censura no facebook e a proibição da página do Femen», Revista Ártemis, 19.. D’autres cas anomaux ont été la suppression de la photographie emblématique de la fillette brûlée au napalm pendant la guerre du Viêt Nam, ainsi que d’autres exemples d’œuvres d’art et de photographies ayant un but éducatif.
32. Ces cas suscitent des interrogations à propos de l’attention que les médias sociaux portent à la liberté d’expression et font surgir des inquiétudes concernant le manque de clarté des règles et des réglementations sur lesquelles les médias sociaux fondent leurs décisions. Ils confirment l’importance d’examiner le rôle que les médias sociaux jouent en tant que distributeurs d’informations et la responsabilité éditoriale qui en découle, en gardant à l’esprit la protection de ce droit de l’homme fondamental qu’est la liberté d’expression et les conséquences sur l’état de droit.

3. Liberté d’information

33. La possibilité pour chaque personne d’avoir accès à une information de qualité – c’est-à-dire à des informations exactes, fondées sur des faits, pertinentes et équilibrées – est un élément fondamental des sociétés démocratiques. D’un point de vue juridique, nous ne disposons pas d’un droit à des informations purement véridiques et factuelles. Une information parfaite n’existe pas dans la pratique: il y a toujours un certain degré d’approximation et la perspective du narrateur. Par ailleurs, aucune obligation générale n’impose de fournir des informations qui sont 100% exactes, exhaustives, neutres, etc.; la satire et la parodie, par exemple, ne sont pas censées être neutres et objectives et nous savons que les journaux et les radiodiffuseurs ont et partagent des opinions politiques. De plus, le droit à la liberté d’expression (telle qu’il est garanti par l’article 10 de la Convention européenne des droits de l’homme) couvre également les informations qui, délibérément parfois, ne sont pas exactes ainsi que des points de vue qui peuvent paraître choquants et blesser certaines personnes, voire même s’avérer en contradiction avec les faits. En d’autres termes, la diffusion de contenus inexacts et de piètre qualité ne constitue pas nécessairement en soi un comportement illégal (donc répréhensible).
34. Certains acteurs assument cependant davantage de responsabilités que d’autres. Par exemple, les citoyens attendent des pouvoirs publics qu’ils fournissent des informations fiables et la législation nationale sur la liberté d’information garantit (du moins dans une certaine mesure) l’accès à ces données détenues par l’administration publique. De même, les médias ont un rôle fondamental à jouer dans notre société démocratique ainsi qu’une responsabilité en matière de défense de l’intérêt général, en délivrant au public des informations de qualité; nous escomptons un niveau élevé d’exactitude et de fiabilité des informations diffusées par les médias, et encore plus par les médias de service public, hors ligne et en ligne.
35. Dans l’idéal, les médias sociaux devraient être un canal par lequel le public accède à une information de qualité, en évitant les contenus manipulateurs et trompeurs qui pourraient entraîner des fractures sociales. Même si les médias sociaux ne créent pas eux-mêmes de contenu d’information, ils sont devenus un des principaux fournisseurs d’informations pour une part importante de la population européenne et mondiale. En ce sens, des initiatives devraient être prises pour garantir que les médias sociaux constituent un moyen fiable de diffuser et de consulter des informations exactes, équilibrées et factuelles.
36. En effet, la liberté d’information devient une simple illusion lorsque la qualité de l’information à laquelle le lecteur a accès se réduit et que, nonobstant la prolifération des sources (dont souvent la fiabilité est loin d’être vérifiée), le lecteur se trouve enfermé – sans réellement s’en rendre compte – dans des bulles où il ne trouve et ne peut accéder qu’à certaines sources d’information. À cela s’ajoute le problème de la manipulation des opinions.

3.1. La question du désordre informationnel

37. Depuis les dernières élections présidentielles aux États-Unis en particulier, les médias sociaux (et principalement Facebook) ont été accusés d’influencer les électeurs et les résultats par le biais des informations dont ils autorisaient la diffusion. De toutes les questions concernant ce sujet, celle qui a attiré le plus d’attention est celle des «fausses informations». Ce concept peut être plus largement décrit comme «les informations fabriquées qui imitent les contenus présentés par les médias d’information dans la forme mais pas dans le processus organisationnel ou l’intention» 
			(20) 
			Lazer D. et al. (2018), «The science of fake
news», Science, 359(6380),
p. 1094-1096.. Cette définition générale recouvre les contenus liés à la satire et à la parodie, à la fabrication et à la manipulation d’informations ainsi qu’à la publicité et à la propagande politique 
			(21) 
			Tandoc
Jr E.C., Lim Z.W. et Ling R. (2018), «Defining “Fake News” A typology
of scholarly definitions», Digital Journalism, 6(2), p. 137-153.. Même si la terminologie «fausses nouvelles» est très populaire, je parlerai ici de «désordre de l’information», un concept qui englobe la mésinformation, la désinformation et l’information malveillante 
			(22) 
			Le rapport du Conseil
de l’Europe intitulé «<a href='https://rm.coe.int/information-disorder-report-version-august-2018/16808c9c77'>Information
Disorder: Toward an interdisciplinary framework for research and
policy making</a>» («Le désordre
informationnel: vers un cadre interdisciplinaire pour la recherche
et l’élaboration de politiques») décrit comme suit les trois différents
types: la mésinformation correspond à la diffusion d’une information fausse,
sans intention de nuire; la désinformation correspond à la diffusion
délibérée d’une information fausse, dans l’intention de nuire; l’information
malveillante correspond à la diffusion d’une information vraie dans
l’intention de nuire, généralement en divulguant une information
censée rester confidentielle.. Entre autres effets parallèles de la désinformation en ligne et d’autres types de désordres de l’information 
			(23) 
			Sur
cette question spécifique, voir aussi le rapport de l’Union européenne
intitulé «<a href='https://maldita.es/wp-content/uploads/2018/03/HLEGReportonFakeNewsandOnlineDisinformation.pdf'>A
multi-dimensional approach to online disinformation</a>» (Approche multidimensionnelle de la désinformation
en ligne)., on observe une généralisation de la méfiance à l’égard du journalisme et des médias en général 
			(24) 
			Le rapport de notre
commission sur «Les médias de service public dans le contexte de
la désinformation et de la propagande» examine comment il serait
possible de faire face à ces problèmes aussi par le renforcement
du rôle des médias traditionnels..
38. Par ailleurs, les médias sociaux ont généralisé une nouvelle sorte de consommation des informations. Dans le modèle traditionnel hors ligne, celles-ci étaient et sont présentées et reçues comme un ensemble structuré, hiérarchisées et contextualisées afin de permettre aux utilisateurs d’interpréter le message et de lui donner un sens 
			(25) 
			Par exemple,
lorsqu’un utilisateur lisait un journal papier, il savait que les
informations placées en première page étaient les sujets les plus
importants de la journée, d’après les critères du rédacteur en chef,
et il pouvait supposer que les informations figurant dans la section
«politique» étaient davantage basées sur des faits que celles des
«pages éditoriales», et celles dans la section «Mode de vie» devaient
être prises moins au sérieux que celles des pages «Science et technologie».. Les lecteurs savaient aussi que chaque média proposait les informations dans des cadres particuliers et selon des perspectives différentes et spécifiques 
			(26) 
			Ainsi,
les lecteurs s’attendaient à ce que le
Times ou Le Monde donnent
une interprétation plus conservatrice de l’information que The Guardian ou Libération. De leur côté, des tabloïds
tels que le Daily Mail ou Bild proposaient une vision populiste
des affaires courantes et on s’attendait à ce que leurs informations
fussent moins précises et factuelles que celles des journaux grand
format.. La situation a changé avec la popularisation des informations diffusées par le biais des médias sociaux. Dans ce nouvel environnement, les contenus se répandent et atteignent les internautes de manière isolée, sans contexte et avec un lien ténu vers l’organe de presse qui a publié les informations.
39. Ainsi, les utilisateurs de Facebook sont exposés à des gros titres mais ne disposent d’aucune indication formelle pour les interpréter ou détecter les partis pris, ou encore évaluer la qualité du média qui présente l’information résumée dans ce gros titre. Les fournisseurs d’information classiques et de qualité tels que la BBC ou Euronews figurent à côté de liens provenant de sites satiriques comme The Onion, ou de médias partisans comme Breitbart, Junge Freiheit, Libertad Digital ou Fria Tider.

3.2. Un accès biaisé à des sources d’information présélectionnées

40. Les informations et les nouvelles atteignent le public et les utilisateurs des médias sociaux essentiellement grâce à un processus de sélection automatisé et personnalisé, déterminé par des algorithmes soigneusement conçus. Ces algorithmes sont des éléments fondamentaux du développement technologique des médias sociaux et autres plateformes et d’un environnement basés sur internet, même si seulement 29 % de la population sait que les algorithmes sont responsables des informations qui apparaissent sur leurs fils personnels et sur les fils d’actualités des médias sociaux 
			(27) 
			Newman N., Fletcher
R., Kalogeropoulos A., Levy D.A.L. et Nielsen R.K. (2018), Digital
News Report 2018, Reuters Institute for the Study of Journalism
and Oxford University. <a href='http://media.digitalnewsreport.org/wp-content/uploads/2018/06/digital-news-report-2018.pdf?x89475'>http://media.digitalnewsreport.org/wp-content/uploads/2018/06/digital-news-report-2018.pdf?x89475. </a>Twitter a par exemple été accusé de passer sous silence
les manifestations du mouvement Occupy en l’écartant des «tendances»
(«trending topics»). L’entreprise a expliqué que ses algorithmes sélectionnaient
en tant que «tendances» les questions ayant provoqué un très grand
nombre de messages en très peu de temps. Le mouvement Occupy étant
un événement qui s’est prolongé sur plusieurs mois et qui n’a pas
donné lieu à des pics brefs et élevés de messages, il n’est jamais
apparu dans les «tendances» de Twitter..
41. La sélection algorithmique ne garantit pas une diffusion équilibrée et impartiale des informations. En fait, le filtrage algorithmique peut être faussé par des éléments humains et technologiques qui prédéterminent la nature, l’orientation ou l’origine des informations filtrées 
			(28) 
			Bozdag
E. (2013), «Bias in algorithmic filtering and personalization», Ethics and information technology, 15(3), p. 209-227. . En ce sens, l’un des plus grands dangers de l’intelligence artificielle pourrait être la prolifération d’algorithmes biaisés 
			(29) 
			Voir (en espagnol): <a href='https://www.technologyreview.es/s/9610/google-advierte-el-verdadero-peligro-de-la-ia-no-son-los-robots-asesinos-sino-los-algoritmos'>Google
advierte: el verdadero peligro de la IA no son los robots asesinos
sino los algoritmos sesgados</a>..
42. L’idée à la base du filtrage algorithmique est une sélection d’informations adaptées aux intérêts personnels et aux préférences de chaque utilisateur. D’un certain point de vue, nous pouvons considérer qu’il s’agit d’un service nécessaire, car l’alternative serait l’obligation pour l’utilisateur d’internet d’aller chercher l’information dont il a besoin au milieu d’un océan d’informations qui sont pour lui sans intérêt. Les chances de trouver des informations pertinentes dépendraient de la capacité de chaque utilisateur à utiliser correctement des outils de recherche lui permettant de choisir des critères de sélection variés, ainsi que du temps qu’il peut consacrer à cette recherche et de son effort pour affiner progressivement sa recherche. Il est sans doute plus facile de se fier à des algorithmes, qui effectuent la recherche à notre place en tenant compte du «profil qu’ils ont dressé de nous», en analysant les données sur nous qui rentrent dans le système. Mais est-ce sans risques?
43. Il nous a été rappelé l’omniprésence des interactions entre un agent logiciel intelligent (ALI) et les utilisateurs humains dans les situations de la vie quotidienne comme l’accès à l’information, les divertissements ou les achats; et nous avons été avertis que dans le cadre de telles interactions, l’agent logiciel intelligent facilite l’accès de l’utilisateur au contenu, ou contrôle certains autres aspects de l’expérience de l’utilisateur et ne se veut pas neutre quant aux résultats qui découleront des choix de celui-ci. Une recherche réalisée par des experts a mis en lumière que la connaissance des biais et heuristiques des utilisateurs permet de les détourner d’un cheminement plus rationnel. L’étude souligne également que «tout en poursuivant un objectif à court terme, un ALI pourrait finir par induire un changement des actions immédiates de l’utilisateur (par exemple, partager un article ou regarder une vidéo) mais aussi des attitudes et croyances à long terme, en contrôlant simplement l’exposition d’un utilisateur à certains types de contenus» 
			(30) 
			Burr C., Cristianini
N. and Ladyman J. <a href='https://www.researchgate.net/publication/327869784_An_Analysis_of_the_Interaction_Between_Intelligent_Software_Agents_and_Human_Users'>An
Analysis of the Interaction Between Intelligent Software Agents
and Human Users</a>. Dans <a href='https://www.researchgate.net/journal/0924-6495_Minds_and_Machines'>Minds
and Machines</a> (septembre 2018) (en anglais)..
44. Comme résultat de la sélection algorithmique, par exemple, chaque fil d’actualité des utilisateurs de Facebook est unique. Le processus est donc radicalement différent de l’exposition massive à un même agenda médiatique et une même sélection de sujets communs, comme c’était le cas avec les médias traditionnels. Cette nouvelle tendance dans la consommation des informations entraîne une absence d’exposition à des sources diverses d’information. Ce phénomène est connu sous le nom de «bulle de filtres» ou «chambre d’écho», métaphore qui tente d’illustrer la situation dans laquelle les internautes reçoivent uniquement des informations qui renforcent leurs préjugés et leurs points de vue. Ce facteur contribue à la radicalisation et au renforcement des partis pris dans la société.

3.3. Contrôle de l’information et manipulation

45. Le risque de manipulation de l’opinion publique par le biais du contrôle des sources d’information n’est pas nouveau. Edward Bernays a écrit dans son ouvrage précurseur, Propaganda:
«La manipulation consciente, intelligente, des opinions et des habitudes organisées des masses joue un rôle important dans une société démocratique. Ceux qui manipulent ce mécanisme social imperceptible forment un gouvernement invisible qui dirige véritablement le pays.
Nous sommes gouvernés, nos esprits sont façonnés, nos goûts éduqués, nos idées suggérées, en grande partie par des personnes dont nous n’avons jamais entendu parler (…)
Quelle que soit l’attitude qu’on choisit d’avoir envers cette condition, il reste un fait que, dans presque tous les actes de notre vie quotidienne, que ce soit dans le domaine de la politique ou des affaires, dans notre conduite sociale ou notre réflexion éthique, nous sommes dominés par un nombre relativement restreint de personnes (…) qui comprennent les processus mentaux et les modèles sociaux des masses. Ce sont eux qui tirent les fils qui contrôlent l’esprit du public, qui exploitent de vieilles forces sociales et inventent de nouvelles façons de lier et de guider le monde. 
			(31) 
			Edward
Bernays. Propaganda (1928),
premiers paragraphes du chapitre 1.»
46. Bernays parlait de la société américaine en 1928. Aujourd’hui, avec internet, nous parlons de ces quelques personnes qui, grâce à internet et aux médias sociaux, sont bien placées pour prendre le contrôle de toute l’humanité. De nos jours, il est possible de réaliser à l’échelle mondiale ce qui, dans les années trente, pouvait l’être au niveau national grâce au monopole de la radio et du cinéma d’actualités 
			(32) 
			Il
convient bien entendu de garder à l’esprit la différence entre les
«médias» et les «médias sociaux»: les premiers sont des créateurs
d’informations et peuvent être manipulateurs de par la création
de contenus; les seconds diffusent, classent et organisent l’information
et peuvent manipuler l’opinion dans leur façon de sélectionner ou
présenter des contenus.. Par ailleurs, des mécanismes de prévention de ces abus ont été mis en place au plan national et non à l’échelon mondial, en raison notamment de problèmes juridictionnels.

4. Droit au respect la vie privée

47. Les droits au respect de la vie privée et à la protection des données à caractère personnel sont consacrés par l’article 8 de la Convention européenne des droits de l’homme et les principes clés dans ce domaine sont énoncés par la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108). Les données à caractère personnel, en tant qu’éléments de «l’auto-détermination informationnelle» font partie intégrante de tout individu; elles ne peuvent donc pas être vendues, louées ou divulguées. Les personnes doivent avoir la maîtrise de leurs données et la possibilité de décider de leur traitement, y compris de s’y opposer à tout moment.
48. Sir Tim Berners-Lee (l’inventeur du World Wide Web), lors de l’ouverture du Sommet du web qui s’est tenu à Lisbonne le 5 novembre 2018, a affirmé que le web fonctionnait de façon dystopique, en citant des menaces telles que les abus en ligne, la discrimination, les préjugés, les partis pris, la polarisation, les fausses informations et la manipulation politique, entre autres. Par conséquent, il a invité les gouvernements, les entreprises privées et les citoyens à se prononcer en faveur d’un nouveau «Contrat pour le web» visant à protéger les libertés et les droits individuels sur internet 
			(33) 
			Concernant cette initiative,
voir par exemple l’article publié en ligne par The Guardian: <a href='https://www.theguardian.com/technology/2018/nov/05/tim-berners-lee-launches-campaign-to-save-the-web-from-abuse'>Tim
Berners-Lee launches campaign to save the web from abuse</a>.. Ce contrat, qui devrait être achevé et publié en mai 2019, énoncera les principes fondamentaux relatifs à une utilisation éthique et transparente d’internet pour tous les participants. Je mentionnerai ici tout particulièrement deux principes fondamentaux, l’un à l’intention des gouvernements et l’autre à l’intention des entreprises privées: «Respecter le droit fondamental des personnes à la vie privée afin que tout le monde puisse utiliser internet librement, en toute sécurité et sans crainte» et «Respecter la vie privée et les données personnelles des consommateurs afin que les personnes contrôlent leurs vies en ligne».
49. La BBC élabore actuellement un concept d’«Internet de service public». Son modèle s’articule autour de quatre grands thèmes, à commencer par les «Données contrôlées par le public», qui supposent un engagement à «traiter les données comme un bien public, en les remettant entre les mains du public, en renforçant la protection de la vie privée et en donnant au public la possibilité de disposer librement et de garder le contrôle des données qu’ils créent» 
			(34) 
			Voir (en anglais): <a href='https://www.bbc.co.uk/rd/projects/public-service-internet'>Building
A Public Service Internet</a>..
50. Le droit au respect de la vie privée est trop souvent profondément touché par les technologies numériques et sociales. L’une des questions qui se posent en la matière est l’exploitation des informations personnelles. Les technologies numériques permettent aux plateformes et aux fournisseurs de services de rassembler et d’analyser des informations multiples sur leurs utilisateurs. Dans certains cas, ces données sont traitées avec des fins légitimes (comme l’évaluation de la performance des contenus ou l’amélioration de certaines fonctionnalités de la plateforme). Dans d’autres cas, cependant, la manière où ces informations sont utilisées préoccupe.
51. Le rapport de notre commission sur «Internet et la politique: les effets des nouvelles technologies de l’information et de la communication sur la démocratie» 
			(35) 
			Doc. 13386., par exemple, soulevait la question du «sondage sémantique», une technique qui permet d’analyser de très nombreuses données collectées en ligne, afin d’en tirer des conclusions sur l’opinion publique. Les sondeurs utilisent des méthodes de collecte et d’analyse des données sur Twitter et/ou d’autres réseaux dont les utilisateurs ignorent tout, ce qui soulève des inquiétudes concernant le respect de la vie privée, en plus du risque de donner une vision faussée de l’opinion publique pendant les campagnes électorales par exemple (voir paragraphes 60 et 61). Le même rapport comporte une double mise en garde: d’une part, «nos données et les informations nous concernant et d’autre part l’exercice de libertés publiques sur le web font l’objet de manipulations» et, d’autre part, «les internautes n’ont aucun moyen de connaître les détails du fonctionnement de l’algorithme de traitement» (paragraphe 68) 
			(36) 
			Deux autres rapports
de notre commission sur «La protection de la liberté d’expression
et d’information sur l’internet et les médias en ligne» (Doc. 12874 et <a href='http://assembly.coe.int/nw/xml/XRef/Xref-DocDetails-FR.asp?FileID=18082&lang=FR'>addendum</a>) et «La protection de la vie privée et des données à
caractère personnel sur l’internet et les médias en ligne» (Doc. 12695) sont également pertinents à cet égard.. Le processus de modernisation de la Convention no 108 avait entre ses principaux objectifs de remédier à ces problèmes au plan international et de renforcer les droits des individus.
52. J’ajouterais qu’une fois les données sensibles collectées, il est difficile d’écarter le risque qu’elles ne tombent entre les mains d’organisations ou d’États aux intentions douteuses et ne soient ensuite utilisées à mauvais escient. Si l’affaire Cambridge Analytica illustre d’éventuelles méconduites de la part d’organisations privées, je tiens également à rappeler la décision récente (mars 2018) du Gouvernement chinois de considérer que les données de ses propres citoyens sont propriété de l’État. À la suite de cette décision, plusieurs prestataires d’informatique en nuage (dont Microsoft et Apple) ont suspendu leurs «services dans les nuages» vis-à-vis des citoyens chinois, les obligeant à rapatrier leurs données stockées à l’étranger sur un serveur basé en Chine, avec toutes les conséquences que cela peut engendrer. D’autres pays, y compris européens, pourraient malheureusement suivre l’exemple chinois.

4.1. Information, consentement des utilisateurs et paramètres de confidentialité

53. Les utilisateurs n’ont pour la plupart pas connaissance des données qu’un service particulier peut collecter à partir de leur activité. L’un des exemples les plus parlants est ce que Facebook appelle les «posts autocensurés». Ce site de réseau social enregistre et conserve tout ce que les utilisateurs publient et écrivent sur le site – chaque publication, chaque commentaire – même lorsqu’ils sont ensuite supprimés par les utilisateurs et jamais publiés.
54. Dans ce contexte, l’information des utilisateurs et leur consentement éclairé (lequel, néanmoins, n’est pas requis dans tous les cas) sont fondamentaux. Lorsque les utilisateurs s’inscrivent et accèdent à un site de réseau social, ils acceptent un ensemble de conditions générales d’utilisation, associées à un contrat, mais dont les implications sont rarement comprises. Elles sont généralement présentées aux utilisateurs dans un jargon obscur et complexe, leur principal but étant d’éviter les actions en justice plutôt que de communiquer clairement les implications de l’utilisation de ces plateformes 
			(37) 
			Pollach Irene (2007),
«What’s Wrong with Online Privacy Policies?», Communications
of the ACM, 50 (9), p. 103-108..

4.2. Profilage de données, prise de décision automatisé et manipulation

55. La collecte d’innombrables informations à caractère personnel sur les utilisateurs est liée à un autre usage inquiétant, qui est appelé «publicité micro-ciblée» ou «profilage de données». Les plateformes de médias sociaux utilisent l’intelligence artificielle pour étiqueter et classer leurs utilisateurs par catégorie selon leur comportement, leur psychologie, etc. Un problème est que ces catégories peuvent révéler des croyances ou des orientations dont les utilisateurs voudraient que des tiers n’aient pas connaissance. Par exemple, on sait que Facebook a autorisé des annonceurs à cibler des groupes identifiés par son algorithme comme des «auteurs de discours de haine à l’encontre des juifs» 
			(38) 
			Angwin Julia (2017),
«Facebook’s Secret Censorship Rules Protect White Men from Hate
Speech But Not Black Children», ProPublica, <a href='https://www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms'>www.propublica.org/article/facebook-hate-speech-censorship-internal-documents-algorithms</a>; Angwin J., Varner M. et Tobin A. (2017), «Facebook
enabled advertisers to reach “Jew haters”», ProPublica, <a href='https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters'>www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters</a>.. Une étude montre que la classification automatique des données peut être utilisée pour identifier des utilisateurs homosexuels, même si aucune information n’est explicitement fournie à la plateforme sur l’orientation sexuelle des utilisateurs 
			(39) 
			Wang Y. et Kosinski
M. (2018), «Deep neural networks are more accurate than humans at
detecting sexual orientation from facial images», Journal of personality and social psychology, 114(2), p. 246-257..
56. Les experts nous ont avertis que l’analyse des mégadonnées et l’intelligence artificielle servaient à générer des inférences et des prévisions contre-intuitives et non vérifiables sur des comportements, des préférences et la vie privée d’individus, et cela ouvre la voie à de nouvelles possibilités de prise de décision discriminatoire, subjective et intrusive. Il est proposé à cet égard d’examiner la possibilité de reconnaître un nouveau droit à des «inférences raisonnables» 
			(40) 
			Voir à cet égard l’étude
de Sandra Wachter et Brent Mittelstadt (université d’Oxford – Oxford
Internet Institute) sur: <a href='https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3248829'>A Right
to Reasonable Inferences: Re-Thinking Data Protection Law in the
Age of Big Data and AI</a>.. Si cette proposition me séduit, je ne suis pas certain qu’il faille créer un nouveau droit, car, à mon sens, lesdites inférences sont déjà visées par l’article 8 de la Convention européenne des droits de l’homme et par la «Convention 108 modernisée» 
			(41) 
			Texte qui résulte du
Protocole (STCE no 223) d’amendement
à la Convention pour la protection des personnes à l'égard du traitement
automatisé des données à caractère personnel (STE no 108)..
57. Le 13 février 2019, le Comité des Ministres a adopté une Déclaration sur les capacités de manipulation des processus algorithmiques. Puisque les outils de l’apprentissage machine ont de plus en plus la capacité non seulement de prédire les choix mais aussi d’influencer les émotions et les pensées, parfois de manière subliminale, le Comité des Ministres a alerté les États membres du Conseil de l’Europe sur le risque que représente pour les sociétés démocratiques le fait qu’il soit possible d’employer les technologies numériques avancées, en particulier les techniques de micro-ciblage, pour manipuler et contrôler non seulement les choix économiques, mais aussi les comportements sociaux et politiques. La Déclaration signale, entre autres, le pouvoir significatif que les avancées technologiques confèrent à ceux – entités publiques ou acteurs privés – qui peuvent utiliser des outils algorithmiques sans supervision ou contrôle démocratique adéquat et souligne qu’il incombe au secteur privé d’agir avec équité, transparence et responsabilisation en suivant les orientations données par les institutions publiques.

5. Pistes de réflexions

5.1. Protéger la liberté d’expression et la liberté d’information tout en évitant les abus

58. Il va de soi que les entreprises de médias sociaux doivent se conformer aux obligations juridiques de chaque système national et lutter contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs. Pour qu’elles puissent le faire efficacement, sans tomber dans des formes de censure, il incombe, tout d’abord, au législateur de définir aussi clairement que possible quel contenu est répréhensible, par exemple quels éléments caractérisent la «propagande du terrorisme», le «discours de haine» ou la «diffamation», et d’indiquer clairement les obligations des entreprises de médias sociaux qui se trouvent confrontées à ces phénomènes (par exemple, l’obligation de mettre en place des mécanismes de détection des contenus illicites et soit de les bloquer à titre provisoire, soit de les signaler à l’autorité compétente à ordonner leur enlèvement) 
			(42) 
			La
ligne de partage entre contenu «licite» et «illicite» n’est pas
toujours facile à tracer. Cette question est traitée par le rapport
en cours de notre commission sur «Vers une institution d’ombudsman
chargé des questions liées à l’internet».. Il appartient, en effet, au législateur – et seulement à lui – de fixer les limites de la liberté d’expression, dans le respect des obligations internationales existant à cet égard et notamment celles qui découlent de l’article 10 de la Convention européenne des droits de l’homme.

5.1.1. Améliorer les politiques en matière de contenu des médias sociaux

59. Les fournisseurs de services de médias sociaux ne devraient établir aucune limitation à la circulation des contenus, des idées et des faits (soit une interprétation précise d’événements historiques) autre que celles définies par les règlementations nationales. Les idées et les contenus politiques légaux (même si controversés) en aucun cas ne devraient être passés sous silence ou censurés sur les espaces de médias sociaux. Même dans l’éventualité où ces fournisseurs déterminent leurs propres règles en matière de contenus, le droit à la liberté d’expression, en tant que droit fondamental, est inaliénable et l’acceptation par les usagers de clauses contractuelles standard ne saurait décharger les entreprises de médias sociaux de l’obligation de respecter ce droit. Par ailleurs, les normes établies par les fournisseurs de services de médias sociaux concernant les contenus admis (ou non) doivent être rédigées de manière claire et univoque, et devraient être accompagnées, le cas échéant, d’explications et d’exemples (fictifs) de contenus dont la diffusion est prohibée.

5.1.2. Améliorer la qualité de l’information et combattre la désinformation

60. Les entreprises de médias sociaux doivent prendre activement part à l’identification des contenus inexacts ou faux qui circulent par leur biais et en avertir leurs utilisateurs. Les techniques de détection automatique – basées principalement sur l’analyse d’indices linguistiques et l’analyse de réseaux 
			(43) 
			Conroy N.J., Rubin
V.L. et Chen Y. (2016), «Automatic deception detection: Methods
for finding fake news», Proceedings of
the Association for Information Science and Technology, 52(1), p. 1-4. – peuvent aider à atteindre ce résultat.
61. Par exemple, l’analyse du réseau permet de repérer des bots (c’est-à-dire des comptes d’utilisateurs exploités par un logiciel utilisé pour diffuser, republier et attirer l’attention sur les fausses informations diffusées) par leur comportement. Dès lors, les sites de médias sociaux pourraient développer des procédures et des mécanismes visant à exclure de leur contenu «tendance» les messages générés par des bots ou du moins à signaler les comptes concernés et les messages qu’ils republient. Certains médias sociaux explorent en ce moment une autre piste prometteuse, qui consiste à bloquer les fonctions de partage et d’appréciation («J’aime») sur les contenus suspects. Cependant, les solutions technologiques et automatisées pourraient ne fournir qu’une solution partielle au problème car elles ne permettront jamais de prouver l’authenticité d’une information dans sa globalité et portent essentiellement sur les modèles de distribution 
			(44) 
			Huckle
S. et White M. (2017), «Fake news: a technological approach to proving
the origins of content, using blockchains», Big
data, 5(4), p. 356-371..
62. Il est aussi possible d’encourager l’évaluation collaborative et sociale des sources et des informations distribuées. Les membres de la communauté en ligne pourraient évaluer l’exactitude et la qualité des informations qu’ils consultent et sur cette base un classement pourrait être établi, par exemple en calculant une note moyenne à partir des votes des utilisateurs (comme c’est le cas avec les évaluations de TripAdvisor ou Google Ratings). Les internautes pourraient aussi avoir la possibilité de signaler de fausses informations ou des contenus inexacts; lorsque plusieurs signalements sont détectés, la plateforme, après une vérification attentive de la part de professionnels, pourrait ajouter une étiquette ou un texte indiquant qu’il existe des doutes sur l’exactitude du contenu.
63. Nous devons toutefois avoir conscience du fait que de tels mécanismes de contrôle collectif peuvent facilement être manipulés et orientés, au-delà même des bonnes intentions de leurs créateurs 
			(45) 
			L'exemple récent du
restaurant fantôme à Londres arrivé en tête du classement et des
lieux les plus appréciés sur TripAdvisor est la preuve que même
une évaluation collaborative (en l’absence d’un mécanisme transparent
et responsable) peut devenir un piège. Voir <a href='https://www.vice.com/en_uk/article/434gqw/i-made-my-shed-the-top-rated-restaurant-on-tripadvisor'>www.vice.com/en_uk/article/434gqw/i-made-my-shed-the-top-rated-restaurant-on-tripadvisor</a>.. Plusieurs utilisateurs pourraient prendre le contrôle d’une information s’ils se mettent d’accord et coordonnent leurs efforts pour voter de manière fallacieuse ou la contester. Ainsi, des centaines de partisans d’un candidat politique donné pourraient s’organiser pour voter contre des informations qui présentent les responsables politiques d’un autre courant de manière positive. Des solutions existent néanmoins pour éviter cette situation. Par exemple, un très grand nombre de votes ou d’avis devrait être requis pour qualifier une information d’inexacte, puisque les systèmes d’évaluation sociale sont plus fiables lorsqu’ils sont basés sur un grand nombre de votes. Ce système pourrait mieux fonctionner sur Facebook, environnement où il est difficile de mettre en place des bots pour manipuler le système (en votant massivement contre une information, par exemple).
64. Des initiatives pourraient aussi être mises en œuvre hors ligne. Les médias principaux et alternatifs ont lancé des sites internet axés sur certaines sections et d’autres projets pour débusquer les fausses informations et lutter contre la désinformation au moyen d’initiatives basées sur la vérification des faits, qui pourraient permettre de contrebalancer la circulation d’informations trompeuses et mensongères, comme l’a indiqué le rapport (en anglais) de la Commission européenne sur «Une approche multidimensionnelle à la désinformation en ligne».
65. Les sites de médias sociaux pourraient concevoir un système de marquage graphique des contenus provenant de fournisseurs d’informations de qualité 
			(46) 
			Par
exemple, un système de niveaux pourrait s’appliquer, afin d’établir
des «sites verts» (qui couvrent tous les critères prédéterminés),
des «sites jaunes» (qui répondent à certains des critères mentionnés),
des «sites rouges» (qui remplissent un seul critère) et des «sites
noirs» (qui ne couvrent aucun critère ou n’offrent aucune information
sur ce point). Le même code couleur pourrait s’appliquer aux informations
reprises de ces sites.. Cette reconnaissance pourrait être accordée aux médias répondant à certaines conditions, comme par exemple les suivantes:
a. la majeure partie de leurs contenus sont des informations concernant des événements présentant un intérêt civique et social;
b. la plupart de leur personnel est constitué de journalistes professionnels (par exemple, titulaires d’un diplôme universitaire en sciences de la communication ou d’un certificat professionnel équivalent);
c. un pourcentage très élevé de leurs informations (par exemple 99 %) se révèlent être exactes et basées sur des faits.
66. La coopération entre les médias sociaux et les médias traditionnels est un moyen essentiel pour combattre le désordre informationnel. À cet égard, je salue et souhaite soutenir la Journalism Trust Initiative (JTI), lancée par Reporters sans frontières (RSF) et ses partenaires, l’Union européenne de radio-télévision (UER), l’Agence France-Presse (AFP) et le Global Editors Network (GEN). La JTI s’inscrit dans une démarche d’autorégulation volontaire visant à mettre en place un système qui récompense les médias fournissant des garanties de transparence, de vérification de l’information et de correction, d’indépendance éditoriale et de respect des règles déontologiques. À présent, la distribution algorithmique du contenu en ligne n’intègre pas un «facteur intégrité» et tend à amplifier le sensationnalisme, la rumeur, le mensonge et la haine. Pour inverser cette logique, le projet développe actuellement des critères lisibles par les machines, valables pour les médias grands ou petits, dans les domaines de l’identité et de la propriété des médias, des méthodes et de la déontologie journalistiques. 
			(47) 
			Voir: <a href='https://rsf.org/fr/actualites/plus-dune-centaine-de-medias-et-dorganisations-rallient-la-journalism-trust-initiative'>Plus
d'une centaine de médias et d'organisations rallient la Journalism
Trust Initiative</a>.
67. Dernier point mais non le moindre, les partages individuels de contenus sont un facteur déterminant dans la diffusion de fausses informations sur les médias sociaux: tant qu’une personne croit et partage une fausse information, celle-ci continuera son chemin dans la sphère publique. Des efforts sont donc nécessaires pour améliorer l’éducation aux médias et développer des attitudes et des réflexions critiques envers les contenus médiatiques. L’éducation aux médias numériques tente de développer des compétences en matière de recherche, d’utilisation et d’évaluation des informations sur internet 
			(48) 
			Cheever N.A. et Rokkum
J. (2015), «Internet Credibility and Digital Media Literacy», The Wiley Handbook of Psychology, Technology,
and Society, p. 56-73.. Il est fondamental que ces compétences incluent la compréhension, la détection et la prévention de la diffusion de fausses informations et d’autres types de désinformation. Notre commission prépare un rapport spécifique sur ce thème, auquel je renvoie 
			(49) 
			L’éducation aux médias
dans le nouvel environnement médiatique (rapporteure: Mme Nino
Goguadze, Géorgie, CE)..

5.1.3. Assurer la diversité des sources, des sujets et des points de vue

68. Les entreprises de médias sociaux ont tendance à soutenir que la personnalisation des contenus proposés à leurs utilisateurs est un élément clé de leur modèle économique, mais les études montrent que la personnalisation des contenus est compatible avec le fait de présenter une plus grande diversité de sujets aux utilisateurs finaux 
			(50) 
			Möller J., Trilling
D., Helberger N. et van Es B. (2018), «Do not blame it on the algorithm:
An empirical assessment of multiple recommender systems and their
impact on content diversity», Information,
Communication & Society, 21(7), p. 959-977.. Des algorithmes peuvent être conçus et mis en place pour encourager la pluralité et la diversité des avis, des opinions et des mentalités 
			(51) 
			Bozdag E. et van den
Hoven J. (2015), «Breaking the filter bubble: democracy and design», Ethics and Information Technology, 17(4), p. 249-265..
69. Dans l’idéal, les entreprises devraient prendre des mesures d’évaluation et d’audit externe visant à déterminer que leurs algorithmes ne sont pas biaisés et favorisent la pluralité ou la diversité des faits, des points de vue et des opinions. Cela étant, la transparence de ces algorithmes est insuffisante pour qu’ils soient évalués ou analysés; mais cette réalité ne devrait pas empêcher d’évaluer les résultats. Des tests pourraient être menés afin de détecter le type de contenu que chaque algorithme filtre et sélectionne et le type de contenu médiatique qui apparaît sur le fil d’actualité des utilisateurs. Même si aucun mécanisme ne rend cette recommandation obligatoire, un «label de bonnes pratiques» pourrait être octroyé aux opérateurs de l’internet dont les algorithmes sont conçus pour favoriser la sélection de contenus pluriels et qui permettent ainsi une exposition pluraliste sur le plan idéologique.
70. Une autre idée intéressante s’appuie sur la possibilité d’élargir le nombre des «boutons de réactions» (comme ceux de Facebook permettant d’exprimer les réactions «J’adore», «Waouh» ou «Triste») et d’introduire un bouton «important», afin de renforcer la visibilité des questions pertinentes mais au contenu à faible impact émotionnel. Cela permettrait d’accroître la portée des contenus pertinents et de les faire passer devant les contenus indifférents et hors propos partagés par les déclencheurs émotionnels 
			(52) 
			Eli Pariser, The filter bubble: What the Internet is hiding
from you, Penguin UK, 2011..

5.2. Renforcer le contrôle des usagers sur leurs données

71. J’estime que le droit à la vie privée implique que les usagers doivent avoir la possibilité de réglementer l’accès des tiers à leurs données à caractère personnel, lesquelles sont collectées par les plateformes de médias sociaux comme un élément clé de leur plan d’affaires. Selon le préambule de Convention 108 modernisée: «Il est nécessaire de garantir la dignité humaine ainsi que la protection des droits de l’homme et des libertés fondamentales de toute personne, et (…) l’autonomie personnelle, fondée sur le droit de toute personne de contrôler ses propres données à caractère personnel et le traitement qui en est fait.» Il n’en est pas ainsi aujourd’hui. Le scandale Cambridge Analytica n’est que la partie émergée d’un iceberg de pratiques douteuses, que nous ne pouvons ignorer davantage.

5.2.1. Information, consentement des utilisateurs et paramètres de confidentialité

72. Les utilisateurs ne connaissent pas suffisamment les informations les concernant que les entreprises de médias sociaux collectent et les fins auxquelles cette collecte de données est destinée. La Convention 108 modernisée et la législation de l’Union européenne demandent que les informations fournies aux utilisateurs de ces plateformes soient concises, transparentes, compréhensibles et facilement accessibles 
			(53) 
			Notamment, d’après
le Règlement général sur la protection des données de l’Union européenne
(article 30), les utilisateurs ont droit aux informations suivantes
(entre autres): les finalités du traitement des données; une description
des catégories de personnes concernées et des catégories de données
à caractère personnel liées au traitement; des informations sur
les catégories de destinataires auxquels les données à caractère
personnel ont été ou seront communiquées; le cas échéant, des informations
selon lesquelles des données à caractère personnel ont été ou vont
être transférées vers des pays tiers ou des organisations internationales. 
			(53) 
			L’article
8 de la Convention 108 modernisée prévoit que le responsable du
traitement informe les personnes concernées: 
			(53) 
			«a. de
son identité et de sa résidence ou lieu d’établissement habituels; 
			(53) 
			b.
de la base légale et des finalités du traitement envisagé; 
			(53) 
			c.
des catégories des données à caractère personnel traitées; 
			(53) 
			d.
le cas échéant, des destinataires ou catégories de destinataires
des données à caractère personnel; et 
			(53) 
			e. des moyens
d’exercer les droits énoncés à l’article 9; et 
			(53) 
			ainsi
que de toute autre information complémentaire nécessaire pour garantir
un traitement loyal et transparent des données à caractère personnel.». La réalité est néanmoins bien différente.
73. Un moyen d’améliorer la lisibilité des clauses et conditions contractuelles que les utilisateurs doivent accepter serait d’élaborer des visuels résumant les informations contenues dans ces documents juridiques, cette méthode s’étant révélée garantir une meilleure compréhension des informations complexes.
74. À cet égard, des chercheurs 
			(54) 
			Fox A.K et Royne M.B.
(2018), «Private information in a social world: assessing consumers’
fear and understanding of social media privacy», Journal of Marketing Theory and Practice,
26(1-2), p. 72-89. proposent que les entreprises adoptent des politiques de confidentialité présentées sous la forme de «labels nutritionnels» et que les informations puissent être résumées dans un tableau, plutôt que dans une série de paragraphes. Ce «label» devrait répondre au moins aux questions suivantes:
  • Qui peut voir ce que je publie?
  • Quelles informations seront accessibles me concernant?
  • Quelles données seront collectées me concernant?
  • Que ferez-vous de ces données?
  • Que ferez-vous de mes contenus?
  • Qui peut me contacter ou m’atteindre?
75. Dans l’idéal, les utilisateurs devraient non seulement pouvoir obtenir ces informations, mais aussi établir des règles et adapter les réponses à ces questions. Il pourrait être demandé aussi que les paramètres de confidentialité soient toujours définis par défaut au plus haut niveau de protection. La plupart des utilisateurs ne changent jamais ces paramètres; par conséquent, les entreprises de médias sociaux définissent le niveau de restriction le plus faible afin de collecter le plus grand nombre d’informations possible. Modifier cela et faire en sorte que les conditions soient obligatoirement définies avec les options les plus restrictives entraînerait une protection plus élevée pour tous les utilisateurs et pas seulement ceux qui ont des compétences numériques ou qui ont une meilleure connaissance des problèmes en matière de protection des données et de confidentialité.
76. D’après les lois sur la protection des données et le Règlement général sur la protection des données (RGPD) de l’Union européenne, les opérateurs d’internet (à l’instar de tout contrôleur de données) doivent avoir une base juridique valide pour collecter les données des utilisateurs, mais plusieurs ont mis en place un vaste ensemble de pratiques abusives, afin de manipuler les utilisateurs et de les forcer à choisir les options et paramètres de confidentialité les moins restrictifs. Par exemple, certains services ont choisi des interfaces contre-intuitives qui, lorsqu’ils collectent différentes catégories d’informations, ne laissent le choix aux utilisateurs qu’entre deux boutons sans étiquette, ni texte joint. L’un des boutons était rouge et l’autre vert. Contre toute attente, le choix «rouge» entraînait l’acceptation de ces conditions par l’utilisateur. J’estime qu’il convient d’accorder une attention particulière à ce type de pratiques abusives qui doivent être détectées et réprimandées, voire punies.
77. En outre, les conditions et les pratiques inacceptables devraient être inscrites sur une liste noire et prohibées, afin de protéger les individus des comportements abusifs des entreprises de médias sociaux et d’internet. Tel devrait être le cas, par exemple, de la vente de données à caractère personnel par les courtiers en données, qui ne devrait être permise en aucune circonstance.
78. Un autre principe clé de la protection des données (qui est maintenant inscrit aussi dans l’article 17 du RGPD) est le droit à l’effacement: les personnes concernées ont le droit d’obtenir du responsable du traitement l’effacement, dans les meilleurs délais, de données à caractère personnel les concernant, y compris en cas de retrait d’un consentement donné antérieurement.
79. Cela signifie que la plateforme devrait aussi effacer ces informations de ses serveurs et ne plus les traiter ni les inclure sur le profil et les informations agrégées de l’utilisateur. Il ne devrait plus exister de distinction entre les «informations visibles» et les «informations invisibles». Cela permettrait aussi de mettre fin à la collecte par des entreprises comme Facebook d’informations concernant l’activité des utilisateurs sur d’autres pages internet lorsque le site du réseau social est ouvert dans un autre onglet du navigateur.
80. Je tiens à souligner que la Convention 108 modernisée (qui n’est malheureusement pas encore en vigueur) se veut un corpus de principes extrêmement clairs, en particulier celui de légitimité du traitement des données qui doit avoir pour fondement juridique le consentement valide (et donc éclairé) des utilisateurs ou un autre motif légitime prévu par la loi, ainsi que les principes de transparence et de proportionnalité du traitement de données, de minimisation des données, de respect de la vie privée dès la conception et de respect de la vie privée par défaut; les responsables du traitement, tels que définis à l’article 2 de la Convention 108 modernisée, devraient être tenus de prendre toutes les mesures appropriées afin de garantir les droits des personnes concernées, comme énoncés à son article 9.1, selon lequel:
«Toute personne a le droit:
a. de ne pas être soumise à une décision l’affectant de manière significative, qui serait prise uniquement sur le fondement d’un traitement automatisé de données, sans que son point de vue soit pris en compte;
b. d’obtenir, à sa demande, à intervalle raisonnable et sans délai ou frais excessifs, la confirmation d’un traitement de données la concernant, la communication sous une forme intelligible des données traitées, et toute information disponible sur leur origine, sur la durée de leur conservation ainsi que toute autre information que le responsable du traitement est tenu de fournir au titre de la transparence des traitements (…);
c. d’obtenir, à sa demande, connaissance du raisonnement qui sous-tend le traitement de données, lorsque les résultats de ce traitement lui sont appliqués;
d. de s’opposer à tout moment, pour des raisons tenant à sa situation, à ce que des données à caractère personnel la concernant fassent l’objet d’un traitement, à moins que le responsable du traitement ne démontre des motifs légitimes justifiant le traitement qui prévalent sur les intérêts, ou les droits et libertés fondamentales de la personne concernée;
e. d’obtenir, à sa demande, sans frais et sans délai excessifs, la rectification de ces données ou, le cas échéant, leur effacement lorsqu’elles sont ou ont été traitées en violation des dispositions de la présente Convention;
f. de disposer d’un recours (…) lorsque ses droits prévus par la présente Convention ont été violés;
g. de bénéficier, quelle que soit sa nationalité ou sa résidence, de l’assistance d’une autorité de contrôle (…) pour l’exercice de ses droits prévus par la présente Convention.»
81. Les États membres du Conseil de l’Europe devraient prendre les mesures nécessaires pour ratifier au plus tôt la Convention 108 modernisée, et dans l’intervalle, vérifier et adapter leur réglementation afin de veiller à leur cohérence avec ses principes et d’assurer la protection effective des droits des personnes concernées consacrés par cet instrument. Les Parties à la Convention 108 qui ne sont pas membres du Conseil de l’Europe devraient prendre les mesures nécessaires pour une entrée en vigueur rapide du protocole d’amendement.

5.2.2. Superviser, corriger et refuser le profilage des données

82. Tout profilage devrait respecter la Recommandation CM/Rec(2010)13 du Comité des Ministres sur la protection des personnes à l’égard du traitement automatisé des données à caractère personnel dans le cadre du profilage.
83. Le 28 janvier 2019, le Comité consultatif de la Convention 108 a publié des Lignes directrices sur l'intelligence artificielle et la protection des données. Ces lignes directrices visent à aider les décideurs politiques, les développeurs de l’intelligence artificielle (IA), les fabricants et les prestataires de services à garantir que les applications d’IA ne portent pas atteinte au droit à la protection des données. Le Comité de la Convention 108 souligne que la protection des droits de l’homme, notamment le droit à la protection des données à caractère personnel, est essentielle lors du développement ou de l’adoption d’applications d’IA, en particulier lorsque ces dernières sont utilisées dans des processus de décision, et qu’elle devrait se fonder sur les principes de la Convention 108 modernisée. En outre, toute application d’IA devrait veiller tout particulièrement à éviter et atténuer les risques potentiels du traitement des données personnelles et permettre un contrôle significatif du traitement des données et de ses effets par les personnes concernées. Ces lignes directrices sur l’IA font référence à d’importants enjeux déjà abordés dans les Lignes directrices sur la protection des personnes à l’égard du traitement des données à caractère personnel à l’ère des mégadonnées, et à «la nécessité d’assurer la protection de l’autonomie personnelle, fondée sur le droit de toute personne de contrôler ses propres données à caractère personnel et le traitement qui en est fait».
84. Dès lors, les utilisateurs devraient avoir le droit de superviser, d’évaluer et, idéalement, de refuser le profilage. L’opacité des algorithmes des plateformes de médias sociaux rend cela difficile, mais nous pouvons appeler les opérateurs de l’internet à aussi mettre en œuvre des bonnes pratiques à cet égard, et demander aux autorités publiques de forcer les opérateurs de l’internet à aller dans la bonne direction s’ils ne veulent pas le faire spontanément. Par exemple, les gouvernements pourraient encourager les entreprises de médias sociaux à inclure un élément de confidentialité permettant aux utilisateurs de vérifier toutes les «microcatégories» dans lesquelles ils ont été inclus et de déterminer, s’ils le souhaitent, les catégories qui ne doivent pas s’appliquer à eux.
85. Concernant les publicités micro-ciblées, il conviendrait d’ajouter un élément dans les publications mises en valeur (c’est-à-dire payées ou publicitaires) et les publications à portée interne (celles qui sont vues par l’utilisateur en dehors des campagnes promotionnelles). Cet élément, qui pourrait être appelé «pourquoi je vois cela», devrait fournir à l’utilisateur toutes les informations qui ont été utilisées pour lui proposer la publication ou le contenu en question. Il devrait aussi lui permettre de demander les informations ou données utilisées par la plateforme pour filtrer et promouvoir des contenus en fonction du profil de données qu’elle possède de l’utilisateur et en demander la suppression 
			(55) 
			Par
exemple, si un utilisateur donné voit une annonce sur «l’adoption
d’animaux», il devrait pouvoir demander pourquoi cette publication
apparaît dans son fil d’actualité. La fonction «pourquoi vois-je
cela?» devrait donc énumérer les informations sur lesquelles se
basent ce filtrage et cette promotion et les «catégories» dans lesquelles
figure l’utilisateur, le cas échéant, ou les «catégories» que le
publicitaire a recherchées. Dans le cas en question, si l’une des
raisons est que l’utilisateur figure sur une liste en tant que «vegan»
(car il ou elle publie régulièrement des recettes végétariennes),
cette raison devrait être indiquée clairement.. Bien entendu, cette fonctionnalité ne devrait pas se trouver dans un coin éloigné et caché dans les options des paramètres de confidentialité, mais devrait figurer de manière accessible, idéalement sous la forme d’un bouton dans toutes les publications, afin de pouvoir être vérifiée aisément par tous les utilisateurs.
86. Par ailleurs, une telle fonctionnalité contribuerait à une mise en œuvre effective du droit de s’opposer au traitement. Les utilisateurs ont le droit de limiter le traitement de leurs données dans le temps; ils devraient avoir aussi le droit, en principe, de limiter le type d’informations les concernant qui sont traitées. Cela correspond aussi à l’idée des «avis stratifiés» qui permettent aux utilisateurs de déterminer le niveau de détails qu’ils préfèrent voir traiter. Ainsi l’utilisateur pourrait limiter le traitement non seulement au moyen de coordonnées temporelles mais aussi en excluant différentes facettes de son activité ou de sa personnalité.

5.2.3. Restituer aux usagers le control total de leurs données

87. Comme évoqué précédemment, l’accès à un contenu ou à un service en ligne est (quasi) systématiquement soumis à un «consentement», qui diffère toutefois de celui décrit à l’article 5.2 de la Convention 108 modernisée, selon lequel «le traitement de données ne peut être effectué que sur la base du consentement libre, spécifique, éclairé et non-équivoque de la personne concernée». Dans la majorité des cas, une simple coche dans une case, accompagnée d’un lien renvoyant à une politique de confidentialité volumineuse et rédigée en termes légalistes, permet au responsable du traitement des données de divulguer, voire même de transférer, les données des utilisateurs à de tierces parties. Il devrait être mis fin à cette pratique. La personne concernée doit garder le contrôle de ses données. Le modèle économique qui s’appuie sur ce «consentement» implicite et tire la plus grande partie de ses revenus de la vente de «publicités ciblées» fondées sur ces données, devrait faire l’objet d’un débat public ouvert et inclusif.
88. Je voudrais souligner que la question du respect de la vie privée est considérée comme cruciale par la communauté du World Wide Web elle-même, ou tout au moins par une partie d’entre-elle. Pour Sir Tim Berners-Lee, ouverture des données et meilleur respect de la vie privée en ligne ne sont pas antinomiques. Dans une note intitulée «One Small Step for the Web…» (Un petit pas pour le Web), publiée le 28 septembre 2018, il a annoncé le lancement d’un projet open source baptisé Solid, qui est censé révolutionner le modèle actuel où les utilisateurs doivent remettre leurs données personnelles à des opérateurs internet en échange des services fournis.
89. Dans cette tribune, Tim Berners-Lee dénonce la manière dont le web a évolué: «il est devenu un moteur d’iniquité et de division, influencé par des forces puissantes qui l’utilisent pour leurs propres objectifs». Il ajoute que «Solid est notre manière de faire évoluer le Web afin de rétablir l’équilibre – en donnant à chacun d’entre nous le contrôle total sur les données, personnelles ou non, d’une manière révolutionnaire» et explique que cette nouvelle plateforme «donne à chaque utilisateur le choix de l’endroit où les données sont stockées, des personnes et des groupes spécifiques qui peuvent accéder aux éléments sélectionnés, et des applications que vous utilisez. Elle vous permet, à vous, à votre famille et à vos collègues, d’établir des liens et de partager des données avec n’importe qui. Elle permet aux personnes de consulter simultanément les mêmes données depuis des applications différentes».
90. En d’autres termes, Solid vise à permettre aux utilisateurs de créer, gérer et sécuriser leur propre espace de stockage de données personnelles en ligne («POD»), c’est-à-dire une sorte de «coffre-fort numérique» qui peut être situé à la maison, au travail ou chez un fournisseur POD sélectionné, et dans lequel les utilisateurs peuvent stocker des informations comme des photos, des contacts, des calendriers, des données médicales et autres. Ils peuvent ensuite donner l’autorisation à d’autres personnes, entités et applications de lire ou écrire certaines parties de leur POD Solid.
91. Il convient de noter que le concept de Solid n’est pas entièrement nouveau; en France, un nouveau service appelé Cozy Cloud est disponible depuis début de l’année 2018. Ce service affiche la même ambition: «permettre à chacun de bénéficier de plus d’usages de ses données personnelles en se les réappropriant».
92. Une difficulté tient cependant au fait que les services en ligne les plus courants – comme Gmail ou Facebook – ne semblent pas avoir inscrit à leur ordre du jour le développement à court terme de leurs outils afin de garantir leur compatibilité avec Solid. Les instances de régulation devraient peut-être intervenir de manière à imposer de tels développements. La BBC a annoncé la sortie d’une nouvelle application destinée à protéger les enfants sur internet, qui stocke l’ensemble des données privées sur l’appareil lui-même, en local; c’est un signe encourageant d’une nouvelle tendance dans cette direction, qui confirme que les avantages des services personnalisés ne sont pas incompatibles avec le respect de la vie privée.

6. Conclusions

93. L’Assemblée et le Comité des Ministres ont adressé plusieurs recommandations aux autorités nationales et aux médias sociaux, qui ciblent les questions de la liberté d’expression, de la liberté d’information et du respect de la vie privée (en lien également avec la collecte et la protection des données). Cependant, cela reste un chantier ouvert. Nous nous trouvons dans un environnement en constante et rapide évolution; dès lors, dans ce domaine, nous avons besoin de repenser, d’affiner et de compléter notre action de façon continue.
94. Pour que nos efforts visant à garantir une protection efficace des droits fondamentaux aboutissent, il est, à mon sens, déterminant de poursuivre sur la voie de la coopération entre les différents acteurs et en particulier, dans ce cas, entre les pouvoirs publics et les médias sociaux. À cet égard, je salue le fait que des partenaires comme Google et Facebook aient accepté de dialoguer et de contribuer à cette réflexion.
95. De manière provocatrice, ce rapport s’interroge sur le modèle économique qui domine aujourd’hui l’économie d’internet, un modèle économique centré sur la collecte, l’analyse et l’utilisation des données personnelles. Souhaitons-nous accepter que celui-ci soit le prix à payer pour les services que les entreprises du Net nous offrent? Ou bien avons-nous une alternative valable à proposer?
96. Dans la mesure où les plateformes de médias sociaux sont devenues d’importants diffuseurs d’informations et autres contenus journalistiques, cette diffusion ne peut être exclusivement motivée par le profit. Les entreprises de médias sociaux doivent assumer certaines responsabilités d’intérêt public s’agissant du rôle éditorial dont certaines plateformes s’acquittent déjà, mais pas de la manière la plus transparente, et en ce qui concerne l’exploitation massive des données à caractère personnel.
97. Par ailleurs, la question de l’utilisation de nos données personnelles n’est pas seulement liée à la protection de notre droit à la vie privée; il s’agit aussi de la possibilité de nous contrôler de manière subreptice, ainsi que de la possibilité de biaiser le fonctionnement de la démocratie en la vidant de son sens.
98. Ce rapport ne prétend apporter ni de remède miracle ni de solution définitive. Mon effort, avec l’aide des experts qui nous ont accompagnés, a été de réfléchir sur comment nous pouvons, ensemble, remettre les personnes au centre du débat sur le rôle et les responsabilités des médias sociaux. Tel es le raisonnement qui sous-tend les propositions faites en vue de prendre des mesures pratiques.