Imprimer
Autres documents liés

Résolution 2281 (2019)

Médias sociaux: créateurs de liens sociaux ou menaces pour les droits humains?

Auteur(s) : Assemblée parlementaire

Origine - Discussion par l’Assemblée le 12 avril 2019 (18e séance) (voir Doc. 14844, rapport de la commission de la culture, de la science, de l’éducation et des médias, rapporteur: M. José Cepeda). Texte adopté par l’Assemblée le 12 avril 2019 (18e séance).

1. L’Assemblée parlementaire apprécie hautement la contribution positive des médias sociaux au bien-être et au développement de nos sociétés. Ces médias sont des outils indispensables qui permettent de rapprocher les individus et facilitent l’établissement et le développement de nouveaux contacts, jouant ainsi un rôle important dans la construction d’un capital social. Ils offrent un nouvel espace public, où les questions politiques et les sujets d’intérêt social font l’objet de débats, et où les petits partis, les minorités et les groupes marginaux fréquemment réduits au silence dans les principaux médias traditionnels peuvent diffuser leurs idées et points de vue. Ils peuvent exposer les utilisateurs à des sources d’information et à des avis plus diversifiés, favoriser la pluralité des opinions, nécessaire dans une société démocratique, et renforcer la participation démocratique.
2. Malgré l’immense potentiel salutaire que les médias sociaux ont à offrir aux personnes et à nos sociétés, leur utilisation abusive engendre aussi de multiples conséquences néfastes sur nos droits individuels et notre bien-être, sur le fonctionnement des institutions démocratiques et sur le développement de nos sociétés. Il s’agit notamment de la cyberintimidation, du cyberharcèlement, de la cyberprédation, du discours de haine et de l’incitation à la violence et à la discrimination, de la désinformation et de la manipulation de l’opinion publique, et de l’influence indue sur les processus politiques, notamment électoraux.
3. Les entreprises de médias sociaux sont des acteurs essentiels de la régulation du flux d’informations sur internet et leur fonctionnement a des répercussions significatives sur la liberté d’expression, y compris sur la liberté d’information, mais aussi – de manière plus insidieuse – sur le droit à la vie privée. Ces inquiétudes ne sont pas une nouveauté pour l’Assemblée et, par le passé, plusieurs rapports ont cherché à identifier des mesures pour limiter, si ce n’est éliminer, le risque d’abus qu’internet rend possible dans ces domaines sensibles. Cependant, de récents scandales ont mis en exergue la nécessité d’approfondir l’étude des responsabilités que devraient assumer les médias sociaux à cet égard et du devoir qui incombe aux autorités publiques de veiller au respect plein et entier de ces droits fondamentaux.
4. L’Assemblée estime que les entreprises de médias sociaux devraient repenser et améliorer leurs politiques internes de manière à défendre plus fermement les droits à la liberté d’expression et d’information, en promouvant la diversité des sources, des sujets et des points de vue, ainsi qu’une meilleure qualité de l’information, tout en luttant effectivement contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs et en contrant plus efficacement la désinformation.
5. Par ailleurs, l’Assemblée se demande s’il n’est pas désormais nécessaire de remettre en question le modèle économique sur lequel les grandes entreprises de médias sociaux ont bâti leur richesse, sachant que celui-ci repose sur l’acquisition massive de données auprès de leurs utilisateurs ainsi que de leurs connaissances, et sur leur exploitation – dans les faits quasi illimitée – à des fins commerciales. L’exploration de données et le profilage sont des phénomènes qui semblent être allés trop loin, au point d’échapper à tout contrôle démocratique.
6. Bien utilisées, les mégadonnées peuvent faciliter l’élaboration de politiques (sur le développement d’infrastructures et l’urbanisation, par exemple) et la prestation de services essentiels (gestion de la circulation routière et soins de santé, par exemple); il est toutefois nécessaire d’assurer l’anonymisation des données et de garantir que seules des inférences raisonnables peuvent être déduites des données des utilisateurs.
7. L’Assemblée estime que les pouvoirs publics devraient guider les efforts visant à «garantir la dignité humaine ainsi que la protection des droits de l’homme et des libertés fondamentales de toute personne, et, (…) l’autonomie personnelle, fondée sur le droit de toute personne de contrôler ses propres données à caractère personnel et le traitement qui en est fait», comme énoncé dans le Protocole (STCE no 223) d’amendement à la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108) («la Convention 108 modernisée»). Conformément à l’avis exprimé par le Comité des Ministres lors de l’adoption du protocole susmentionné, l’Assemblée souligne l’importance d’une ratification ou d’une adhésion rapide par le plus grand nombre de Parties afin de faciliter l’élaboration d’un régime juridique global de protection des données au titre de la Convention 108 modernisée.
8. Pour obtenir des résultats, l’Assemblée estime crucial que les opérateurs d’internet et les pouvoirs publics collaborent étroitement. À cet égard, elle accueille avec satisfaction la mise en place de formes de partenariat et de coopération entre les opérateurs d’internet et divers organes du Conseil de l’Europe, notamment l’Assemblée elle-même, et elle encourage les partenaires concernés à approfondir cette coopération et à engager un dialogue continu et constructif afin de promouvoir des bonnes pratiques et d’élaborer des normes à même de garantir le respect des droits des utilisateurs et un usage des médias sociaux exempt de risques.
9. Par conséquent, l’Assemblée recommande aux États membres du Conseil de l’Europe:
9.1. de respecter pleinement les obligations internationales concernant le droit à la liberté d’expression, notamment celles qui découlent de l’article 10 de la Convention européenne des droits de l’homme (STE no 5), lorsqu’ils développent le cadre juridique de ce droit, et de mettre en place des réglementations nationales imposant aux fournisseurs de médias sociaux de garantir la diversité des vues et des opinions, et de ne pas réduire au silence les idées et contenus politiques controversés;
9.2. d’intégrer l'enseignement des compétences informatiques, y compris l'utilisation des médias sociaux, dans les programmes scolaires dès le plus jeune âge;
9.3. d’engager au plus tôt le processus requis par leur législation nationale pour ratifier le Protocole d’amendement à la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel;
9.4. dans l’attente du processus de ratification susmentionné, de réviser, si besoin est, les législations nationales en vigueur afin de s’assurer de leur parfaite conformité avec les principes consacrés par la Convention 108 modernisée, et en particulier celui de légitimité du traitement de données, qui doit avoir pour fondement juridique le consentement valide (et donc aussi éclairé) des utilisateurs ou un autre motif légitime prévu par la loi, ainsi que les principes de transparence et de proportionnalité du traitement de données, de minimisation des données, de respect de la vie privée dès la conception et de respect de la vie privée par défaut; les responsables du traitement, tels que définis à l’article 2 de la Convention 108 modernisée, devraient être tenus de prendre toutes les mesures appropriées afin de garantir les droits des personnes concernées, comme énoncés à son article 9;
9.5. d’encourager et de soutenir les initiatives collaboratives sur la vérification des faits et d’autres améliorations dans les systèmes de modération et de conservation de contenus qui visent à lutter contre la diffusion d’informations trompeuses et mensongères, y compris dans les médias sociaux;
9.6. de se doter des moyens de sanctionner les violations de leur législation nationale et de leurs engagements internationaux qui pourraient se produire sur les médias sociaux;
9.7. de promouvoir, au sein du Forum sur la gouvernance de l’internet et du Dialogue européen sur la gouvernance de l’internet, une réflexion sur la possibilité pour la communauté internet d’élaborer, dans le cadre d’un processus collaboratif et s’il y a lieu multipartite, un système d’évaluation et d’audit externes visant à déterminer que les algorithmes respectent les principes sur la protection des données et ne sont pas biaisés, ainsi qu’un «label de bonnes pratiques» qui pourrait être octroyé aux opérateurs internet dont les algorithmes sont conçus pour réduire les risques de «bulles de filtrage» et de «chambres d’écho», et de favoriser un environnement qui offre aux utilisateurs une expérience pluraliste sur le plan idéologique.
10. L’Assemblée invite l’Union européenne à examiner les moyens d’encourager et de soutenir un projet paneuropéen visant à offrir aux internautes un outil leur permettant de créer, de gérer et de sécuriser leurs propres espaces de stockage de données personnelles en ligne, à savoir des «PODS» (personal online data stores), et à réfléchir à la manière de faire évoluer les dispositions réglementaires nationales et européennes pour garantir que les services en ligne, en particulier les plus courants, proposent à leurs utilisateurs des outils qui respectent les principes sur la protection des données et sont compatibles avec les fonctionnalités des PODS.
11. L’Assemblée demande aux entreprises de médias sociaux:
11.1. de définir de manière claire et univoque les normes concernant les contenus admissibles ou non, qui doivent se conformer à l’article 10 de la Convention européenne des droits de l’homme et qui devraient être accompagnées, le cas échéant, d’explications et d’exemples (fictifs) de contenus dont la diffusion est prohibée;
11.2. de prendre activement part non seulement à l’identification des contenus inexacts ou faux qui circulent par leur biais, mais aussi d’avertir leurs utilisateurs de tels contenus, même lorsqu’ils ne sauraient être qualifiés d’illégaux ou de préjudiciables et qu’ils ne sont pas retirés; dans les cas les plus graves, l’avertissement devrait s’accompagner du blocage des fonctions d’interaction telles que les appréciations («j’aime») et les partages;
11.3. de procéder systématiquement à une analyse du réseau afin de repérer des faux comptes et des «bots», et de mettre au point des procédures et des mécanismes visant à exclure de leur contenu «tendance» les messages générés par des «bots», ou au moins à signaler les comptes concernés et les messages qu’ils republient;
11.4. d’encourager l’évaluation collaborative des sources d’information et des éléments d’information diffusés, en développant des outils susceptibles de permettre aux membres de la communauté en ligne de fournir une rétroaction sur l’exactitude et la qualité des contenus qu’ils consultent, et de mettre en place des mécanismes de contrôle éditorial par des professionnels afin de détecter et de signaler les contenus inexacts ou trompeurs;
11.5. de s’engager résolument dans les initiatives de vérification des faits visant à lutter contre la diffusion d’informations trompeuses et mensongères par le biais des médias sociaux;
11.6. de soutenir et d’adhérer à la Journalism Trust Initiative lancée par Reporters sans frontières et ses partenaires, l’Union européenne de radio-télévision, l’Agence France-Presse et le Global Editors Network;
11.7. de concevoir et d’appliquer des algorithmes qui respectent les principes sur la protection des données et encouragent la pluralité et la diversité des vues et des opinions;
11.8. de promouvoir la visibilité de questions pertinentes qui ont un contenu à faible impact émotionnel par rapport aux contenus sans grand intérêt, mais qui sont partagés pour des raisons émotionnelles;
11.9. même en l’absence de règles nationales contraignantes, de respecter les principes inscrits dans la Convention 108 modernisée et de veiller, au moyen de dispositions réglementaires volontaires et du développement de bonnes pratiques, au plein respect des droits des personnes concernées, tels qu’énoncés dans son article 9; les mesures positives prises en ce sens devraient notamment:
11.9.1. améliorer la lisibilité des clauses et conditions contractuelles que les utilisateurs doivent accepter, en élaborant par exemple des visuels résumant ces informations sous la forme de tableaux accompagnés de réponses claires aux questions clés liées à la protection de la vie privée;
11.9.2. définir par défaut les règles de confidentialité au plus haut niveau de protection ou, du moins, fournir aux utilisateurs des informations claires et une fonctionnalité conviviale leur permettant de vérifier facilement les règles de protection de la vie privée qui leur sont applicables et de fixer ces paramètres au plus haut niveau de protection;
11.9.3. garantir à leurs utilisateurs le moyen de superviser, d’évaluer et de refuser le profilage, notamment la possibilité de vérifier les «microcatégories» dans lesquelles ils ont été inclus, et de déterminer celles qui ne doivent pas s’appliquer à eux; les utilisateurs doivent aussi être dûment informés des données utilisées par la plateforme pour filtrer et promouvoir les contenus en fonction de leur profil, et être en mesure de demander la suppression de données, à moins que le responsable du traitement ne soit soumis de par la loi à une obligation contraire;
11.9.4. garantir que la propriété des comptes de médias sociaux des personnes défuntes est transmise à leurs proches;
11.9.5. faire en sorte d’assurer progressivement la compatibilité de toutes les fonctionnalités proposées à leurs utilisateurs, avec la possibilité pour ces derniers de créer, de gérer et de sécuriser leurs propres espaces de stockage de données personnelles en ligne.