Imprimer
Autres documents liés
Résolution 2281 (2019)
Médias sociaux: créateurs de liens sociaux ou menaces pour les droits humains?
1. L’Assemblée parlementaire apprécie
hautement la contribution positive des médias sociaux au bien-être et
au développement de nos sociétés. Ces médias sont des outils indispensables
qui permettent de rapprocher les individus et facilitent l’établissement
et le développement de nouveaux contacts, jouant ainsi un rôle important
dans la construction d’un capital social. Ils offrent un nouvel
espace public, où les questions politiques et les sujets d’intérêt
social font l’objet de débats, et où les petits partis, les minorités
et les groupes marginaux fréquemment réduits au silence dans les
principaux médias traditionnels peuvent diffuser leurs idées et
points de vue. Ils peuvent exposer les utilisateurs à des sources
d’information et à des avis plus diversifiés, favoriser la pluralité
des opinions, nécessaire dans une société démocratique, et renforcer
la participation démocratique.
2. Malgré l’immense potentiel salutaire que les médias sociaux
ont à offrir aux personnes et à nos sociétés, leur utilisation abusive
engendre aussi de multiples conséquences néfastes sur nos droits
individuels et notre bien-être, sur le fonctionnement des institutions
démocratiques et sur le développement de nos sociétés. Il s’agit
notamment de la cyberintimidation, du cyberharcèlement, de la cyberprédation,
du discours de haine et de l’incitation à la violence et à la discrimination,
de la désinformation et de la manipulation de l’opinion publique,
et de l’influence indue sur les processus politiques, notamment
électoraux.
3. Les entreprises de médias sociaux sont des acteurs essentiels
de la régulation du flux d’informations sur internet et leur fonctionnement
a des répercussions significatives sur la liberté d’expression,
y compris sur la liberté d’information, mais aussi – de manière
plus insidieuse – sur le droit à la vie privée. Ces inquiétudes ne
sont pas une nouveauté pour l’Assemblée et, par le passé, plusieurs
rapports ont cherché à identifier des mesures pour limiter, si ce
n’est éliminer, le risque d’abus qu’internet rend possible dans
ces domaines sensibles. Cependant, de récents scandales ont mis
en exergue la nécessité d’approfondir l’étude des responsabilités
que devraient assumer les médias sociaux à cet égard et du devoir
qui incombe aux autorités publiques de veiller au respect plein
et entier de ces droits fondamentaux.
4. L’Assemblée estime que les entreprises de médias sociaux devraient
repenser et améliorer leurs politiques internes de manière à défendre
plus fermement les droits à la liberté d’expression et d’information, en
promouvant la diversité des sources, des sujets et des points de
vue, ainsi qu’une meilleure qualité de l’information, tout en luttant
effectivement contre la propagation de contenus illicites par le
biais des profils de leurs utilisateurs et en contrant plus efficacement
la désinformation.
5. Par ailleurs, l’Assemblée se demande s’il n’est pas désormais
nécessaire de remettre en question le modèle économique sur lequel
les grandes entreprises de médias sociaux ont bâti leur richesse,
sachant que celui-ci repose sur l’acquisition massive de données
auprès de leurs utilisateurs ainsi que de leurs connaissances, et
sur leur exploitation – dans les faits quasi illimitée – à des fins
commerciales. L’exploration de données et le profilage sont des
phénomènes qui semblent être allés trop loin, au point d’échapper
à tout contrôle démocratique.
6. Bien utilisées, les mégadonnées peuvent faciliter l’élaboration
de politiques (sur le développement d’infrastructures et l’urbanisation,
par exemple) et la prestation de services essentiels (gestion de
la circulation routière et soins de santé, par exemple); il est
toutefois nécessaire d’assurer l’anonymisation des données et de
garantir que seules des inférences raisonnables peuvent être déduites
des données des utilisateurs.
7. L’Assemblée estime que les pouvoirs publics devraient guider
les efforts visant à «garantir la dignité humaine ainsi que la protection
des droits de l’homme et des libertés fondamentales de toute personne,
et, (…) l’autonomie personnelle, fondée sur le droit de toute personne
de contrôler ses propres données à caractère personnel et le traitement
qui en est fait», comme énoncé dans le Protocole (STCE no 223) d’amendement
à la Convention pour la protection des personnes à l’égard du traitement
automatisé des données à caractère personnel (STE no 108)
(«la Convention 108 modernisée»). Conformément à l’avis exprimé
par le Comité des Ministres lors de l’adoption du protocole susmentionné,
l’Assemblée souligne l’importance d’une ratification ou d’une adhésion
rapide par le plus grand nombre de Parties afin de faciliter l’élaboration
d’un régime juridique global de protection des données au titre
de la Convention 108 modernisée.
8. Pour obtenir des résultats, l’Assemblée estime crucial que
les opérateurs d’internet et les pouvoirs publics collaborent étroitement.
À cet égard, elle accueille avec satisfaction la mise en place de
formes de partenariat et de coopération entre les opérateurs d’internet
et divers organes du Conseil de l’Europe, notamment l’Assemblée
elle-même, et elle encourage les partenaires concernés à approfondir
cette coopération et à engager un dialogue continu et constructif
afin de promouvoir des bonnes pratiques et d’élaborer des normes
à même de garantir le respect des droits des utilisateurs et un
usage des médias sociaux exempt de risques.
9. Par conséquent, l’Assemblée recommande aux États membres du
Conseil de l’Europe:
9.1. de respecter
pleinement les obligations internationales concernant le droit à
la liberté d’expression, notamment celles qui découlent de l’article 10
de la Convention européenne des droits de l’homme (STE no 5),
lorsqu’ils développent le cadre juridique de ce droit, et de mettre
en place des réglementations nationales imposant aux fournisseurs
de médias sociaux de garantir la diversité des vues et des opinions,
et de ne pas réduire au silence les idées et contenus politiques
controversés;
9.2. d’intégrer l'enseignement des compétences informatiques,
y compris l'utilisation des médias sociaux, dans les programmes
scolaires dès le plus jeune âge;
9.3. d’engager au plus tôt le processus requis par leur législation
nationale pour ratifier le Protocole d’amendement à la Convention
pour la protection des personnes à l’égard du traitement automatisé
des données à caractère personnel;
9.4. dans l’attente du processus de ratification susmentionné,
de réviser, si besoin est, les législations nationales en vigueur
afin de s’assurer de leur parfaite conformité avec les principes
consacrés par la Convention 108 modernisée, et en particulier celui
de légitimité du traitement de données, qui doit avoir pour fondement
juridique le consentement valide (et donc aussi éclairé) des utilisateurs
ou un autre motif légitime prévu par la loi, ainsi que les principes
de transparence et de proportionnalité du traitement de données,
de minimisation des données, de respect de la vie privée dès la
conception et de respect de la vie privée par défaut; les responsables
du traitement, tels que définis à l’article 2 de la Convention 108 modernisée,
devraient être tenus de prendre toutes les mesures appropriées afin
de garantir les droits des personnes concernées, comme énoncés à
son article 9;
9.5. d’encourager et de soutenir les initiatives collaboratives
sur la vérification des faits et d’autres améliorations dans les
systèmes de modération et de conservation de contenus qui visent
à lutter contre la diffusion d’informations trompeuses et mensongères,
y compris dans les médias sociaux;
9.6. de se doter des moyens de sanctionner les violations de
leur législation nationale et de leurs engagements internationaux
qui pourraient se produire sur les médias sociaux;
9.7. de promouvoir, au sein du Forum sur la gouvernance de
l’internet et du Dialogue européen sur la gouvernance de l’internet,
une réflexion sur la possibilité pour la communauté internet d’élaborer, dans
le cadre d’un processus collaboratif et s’il y a lieu multipartite,
un système d’évaluation et d’audit externes visant à déterminer
que les algorithmes respectent les principes sur la protection des
données et ne sont pas biaisés, ainsi qu’un «label de bonnes pratiques»
qui pourrait être octroyé aux opérateurs internet dont les algorithmes
sont conçus pour réduire les risques de «bulles de filtrage» et
de «chambres d’écho», et de favoriser un environnement qui offre
aux utilisateurs une expérience pluraliste sur le plan idéologique.
10. L’Assemblée invite l’Union européenne à examiner les moyens
d’encourager et de soutenir un projet paneuropéen visant à offrir
aux internautes un outil leur permettant de créer, de gérer et de
sécuriser leurs propres espaces de stockage de données personnelles
en ligne, à savoir des «PODS» (personal
online data stores), et à réfléchir à la manière de faire
évoluer les dispositions réglementaires nationales et européennes pour
garantir que les services en ligne, en particulier les plus courants,
proposent à leurs utilisateurs des outils qui respectent les principes
sur la protection des données et sont compatibles avec les fonctionnalités
des PODS.
11. L’Assemblée demande aux entreprises de médias sociaux:
11.1. de définir de manière claire
et univoque les normes concernant les contenus admissibles ou non, qui
doivent se conformer à l’article 10 de la Convention européenne
des droits de l’homme et qui devraient être accompagnées, le cas
échéant, d’explications et d’exemples (fictifs) de contenus dont
la diffusion est prohibée;
11.2. de prendre activement part non seulement à l’identification
des contenus inexacts ou faux qui circulent par leur biais, mais
aussi d’avertir leurs utilisateurs de tels contenus, même lorsqu’ils
ne sauraient être qualifiés d’illégaux ou de préjudiciables et qu’ils
ne sont pas retirés; dans les cas les plus graves, l’avertissement
devrait s’accompagner du blocage des fonctions d’interaction telles
que les appréciations («j’aime») et les partages;
11.3. de procéder systématiquement à une analyse du réseau afin
de repérer des faux comptes et des «bots», et de mettre au point
des procédures et des mécanismes visant à exclure de leur contenu «tendance»
les messages générés par des «bots», ou au moins à signaler les
comptes concernés et les messages qu’ils republient;
11.4. d’encourager l’évaluation collaborative des sources d’information
et des éléments d’information diffusés, en développant des outils
susceptibles de permettre aux membres de la communauté en ligne de
fournir une rétroaction sur l’exactitude et la qualité des contenus
qu’ils consultent, et de mettre en place des mécanismes de contrôle
éditorial par des professionnels afin de détecter et de signaler
les contenus inexacts ou trompeurs;
11.5. de s’engager résolument dans les initiatives de vérification
des faits visant à lutter contre la diffusion d’informations trompeuses
et mensongères par le biais des médias sociaux;
11.6. de soutenir et d’adhérer à la Journalism Trust Initiative
lancée par Reporters sans frontières et ses partenaires, l’Union
européenne de radio-télévision, l’Agence France-Presse et le Global
Editors Network;
11.7. de concevoir et d’appliquer des algorithmes qui respectent
les principes sur la protection des données et encouragent la pluralité
et la diversité des vues et des opinions;
11.8. de promouvoir la visibilité de questions pertinentes qui
ont un contenu à faible impact émotionnel par rapport aux contenus
sans grand intérêt, mais qui sont partagés pour des raisons émotionnelles;
11.9. même en l’absence de règles nationales contraignantes,
de respecter les principes inscrits dans la Convention 108 modernisée
et de veiller, au moyen de dispositions réglementaires volontaires
et du développement de bonnes pratiques, au plein respect des droits
des personnes concernées, tels qu’énoncés dans son article 9; les
mesures positives prises en ce sens devraient notamment:
11.9.1. améliorer la lisibilité des clauses et conditions contractuelles
que les utilisateurs doivent accepter, en élaborant par exemple
des visuels résumant ces informations sous la forme de tableaux
accompagnés de réponses claires aux questions clés liées à la protection
de la vie privée;
11.9.2. définir par défaut les règles de confidentialité au plus
haut niveau de protection ou, du moins, fournir aux utilisateurs
des informations claires et une fonctionnalité conviviale leur permettant
de vérifier facilement les règles de protection de la vie privée
qui leur sont applicables et de fixer ces paramètres au plus haut
niveau de protection;
11.9.3. garantir à leurs utilisateurs le moyen de superviser,
d’évaluer et de refuser le profilage, notamment la possibilité de
vérifier les «microcatégories» dans lesquelles ils ont été inclus,
et de déterminer celles qui ne doivent pas s’appliquer à eux; les
utilisateurs doivent aussi être dûment informés des données utilisées
par la plateforme pour filtrer et promouvoir les contenus en fonction
de leur profil, et être en mesure de demander la suppression de
données, à moins que le responsable du traitement ne soit soumis
de par la loi à une obligation contraire;
11.9.4. garantir que la propriété des comptes de médias sociaux
des personnes défuntes est transmise à leurs proches;
11.9.5. faire en sorte d’assurer progressivement la compatibilité
de toutes les fonctionnalités proposées à leurs utilisateurs, avec
la possibilité pour ces derniers de créer, de gérer et de sécuriser
leurs propres espaces de stockage de données personnelles en ligne.