1. La logique du présent rapport
1.1. L’importance
croissante des médias sociaux
1. Les sites de réseaux sociaux
en ligne (ou réseaux sociaux) et les médias sociaux font partie
des phénomènes qui se développent le plus rapidement au XXIe siècle.
À titre d’exemple, Facebook est passé de moins d’un million d’utilisateurs
en 2004 à plus de 2,23 milliards d’utilisateurs actifs chaque mois
en juin 2018 (avec une augmentation de 100 millions d’utilisateurs
actifs mensuels depuis décembre 2017). Si Facebook était une nation,
elle serait le pays le plus peuplé sur terre. YouTube suit de près,
avec 1,9 milliard d’utilisateurs (soit une augmentation d’environ
300 millions d’utilisateurs en moins d’un an); Instagram (propriété
de Facebook) a atteint un milliard d’utilisateurs actifs chaque
mois. Le cas de réussite de ces sites colossaux s’accompagne de
la popularité grandissante des applications mobiles de réseaux sociaux.
Pour ne citer que les deux plus grandes: WhatsApp et Messenger (toutes
deux propriétés de Facebook) comptent respectivement 1,5 et 1,3 milliard
d’utilisateurs actifs chaque mois
.
2. Non seulement nous sommes bien plus nombreux à utiliser ces
réseaux sociaux, mais nous passons aussi de plus en plus de temps
en ligne. Selon l’Eurobaromètre
,
65 % des Européens – et 93 % des 15-25 ans – utilisent internet
tous les jours ou presque. L’une de nos activités les plus fréquentes
en ligne consiste à intervenir sur les réseaux sociaux: 42 % des
Européens – et plus de 80 % des 15-25 ans – utilisent tous les jours
des réseaux sociaux en ligne. Ces pourcentages n’ont fait qu’augmenter
ces dernières années et cette augmentation devrait se poursuivre.
En outre, nos enfants commencent à utiliser les médias sociaux de
plus en plus tôt dans leur jeune existence.
3. Il ne fait aucun doute qu’internet en général et les médias
sociaux en particulier influencent notre manière de rechercher et
consulter les informations, de communiquer, de partager des connaissances
et de forger et exprimer nos opinions. Ils ont des répercussions
significatives à la fois sur nos modes de vie individuels et sur
la façon dont nos sociétés se développent.
1.2. La
contribution positive des médias sociaux au bien-être de nos sociétés
4. Les médias sociaux, qui à l’origine
étaient des sites axés sur les loisirs, sont devenus des plateformes où
se déroule aujourd’hui une grande part de l’interaction sociale.
Nous les utilisons pour prendre contact avec des amis, des connaissances
et des proches, et pour maintenir le lien avec d’autres personnes
qui partagent des intérêts communs, ou encore avec des partenaires
professionnels. Non seulement les médias sociaux sont devenus des
outils indispensables qui aident à rapprocher les gens, mais ils
ouvrent également de nouvelles voies de communication et facilitent
l’établissement et le développement de nouveaux contacts, augmentant
ainsi le nombre de nos connaissances
.
En d’autres termes, ils jouent un rôle important dans le renforcement
du capital social.
5. Une autre tendance de l’évolution des médias sociaux les a
amenés à constituer des espaces de diffusion et de consommation
d’informations et de nouvelles sur les événements de la vie politique
et civile. En plus de partager des photos de leurs vacances ou de
parler de leurs loisirs, les utilisateurs échangent des informations
et des avis sur leurs gouvernements et les politiques qu’ils annoncent,
sur les projets de lois que leurs parlements examinent et sur des
questions civiques et de société.
6. Les médias sociaux ne sont plus des espaces de simple distraction
et de forums de discussion sur des sujets «légers»; ils sont devenus
une extension de l’ancienne sphère publique et offrent un espace
commun où les questions civiques et politiques font l’objet de débats.
En outre, les médias sociaux ont assumé (du moins en partie) le
rôle que les journaux locaux jouaient au XIXe siècle
en tant que moyens permettant aux citoyens de s’intégrer à leur
communauté locale et d’activer des liens latents
.
7. Ces nouvelles sphères publiques jouent un rôle utile sur le
terrain politique et civique car elles ont permis aux groupes minoritaires
de faire entendre leur voix et leur message. Ainsi que la commission
de la culture, de la science, de l'éducation et des médias l’a déjà
souligné dans son rapport sur «Internet et la politique: les effets des
nouvelles technologies de l’information et de la communication sur
la démocratie» (
Doc. 13386), internet et les médias sociaux ont mis un terme à
l’oligopole de l’information détenu par les médias traditionnels,
les institutions et les élites, et ils ont changé en profondeur
les paradigmes de la communication et de la diffusion du savoir.
«L’information se construit également grâce à l’apport des internautes
de tout horizon, indépendamment de leur affiliation politique, de
l’appartenance culturelle, de la catégorie socioprofessionnelle, du
niveau d’études. Par ailleurs, internet permet non seulement une
meilleure intégration au débat public des avis et vues de chacun,
mais il favorise la prise de parole sur des sujets peu traités par
les médias traditionnels» (paragraphe 11 de l’exposé des motifs).
8. Les médias sociaux offrent une voie utile aux petits partis,
minorités et groupes marginaux fréquemment réduits au silence dans
les principaux médias traditionnels. Ces acteurs peuvent utiliser
les médias sociaux pour diffuser leurs idées et leurs points de
vue et pour orienter et stimuler la participation politique. En
Espagne, par exemple, Facebook et Twitter sont deux plateformes
populaires chez les écologistes et les groupes de défense des droits
des animaux, qui s’en servent pour promouvoir des campagnes, sensibiliser
le public, mobiliser leurs partisans et accroître la visibilité
de leurs actions.
9. Cela signifie aussi que les médias sociaux peuvent exposer
les citoyens et les utilisateurs à des sources plus diversifiées
d’information et d’opinions, y compris des points de vue politiques
et idéologiques que les citoyens n’iraient pas chercher activement
ou dont ils ne prendraient pas conscience dans d’autres environnements
.
Ainsi, les médias sociaux favorisent la pluralité des opinions nécessaire
dans une société démocratique. Une autre conséquence bénéfique se
produit en termes de participation: les utilisateurs qui sont exposés
à une panoplie plus large d’informations, d’opinions et de points
de vue sur les événements et les questions de société ont tendance
à être plus actifs en termes de participation politique et d’engagement civique
non seulement en ligne mais aussi hors ligne
.
10. Même s’il convient de noter que cette conclusion n’est pas
confirmée par tous les chercheurs, je partage la conviction de nombreux
experts que nous avons entendus selon laquelle les médias sociaux
encouragent la participation démocratique: «Les plateformes basées
sur internet ont développé ‘l’échelle de participation politique’
en élargissant l’éventail d’activités possibles. Au fond, l’éventail
de petites choses que les gens peuvent faire s’est considérablement
élargi: poster des soutiens politiques, mettre à jour son statut,
partager des contenus de médias, diffuser une opinion sur Twitter,
contribuer à des fils de discussion, signer des pétitions électroniques,
participer à des campagnes de mails électroniques, télécharger et
regarder des vidéos politiques sur YouTube, par exemple. (…) Ces
petits gestes politiques ne feraient absolument pas de différence
s’ils étaient pris individuellement, mais ils peuvent conduire à
des mobilisations à grande échelle»
. Le
Comité des Ministres du Conseil de l’Europe soutient la même conviction
dans ses Recommandations CM/Rec(2012)4 sur la protection des droits
de l’homme dans le cadre des services de réseaux sociaux et CM/Rec(2007)16
sur des mesures visant à promouvoir la valeur de service public
de l’Internet.
11. Les médias sociaux peuvent tirer parti de ces répercussions
positives sur la participation politique et l’encourager au moyen
de campagnes ou d’activités spécifiques. Par exemple, lors des élections présidentielles
américaines de 2010 et 2014, Facebook a intégré la fonctionnalité
«I voted» (J’ai voté) ce qui a permis aux utilisateurs d’afficher
un bouton sur leur mur virtuel pour partager avec leurs contacts
qu’ils avaient effectivement pris part à l’élection. Les deux campagnes
ont enregistré une hausse de la participation électorale.
12. Cependant, les boutons «J’ai voté» peuvent constituer ou non
une fonctionnalité positive, selon qu’ils sont transparents et non
biaisés, sont proposés à tous les utilisateurs et affichés de manière
identique pour tous. Ils ont à ce jour suscité plus de questions
qu’ils n’ont apporté de réponses et sont vivement critiqués par de
nombreux analystes. À titre d’exemple, lors des élections américaines,
tous les électeurs n’ont pas vu la même chose sur leur fil d’actualité
Facebook et les utilisateurs n’ont pas été informés de l’expérimentation (à savoir,
examiner si le bouton «J’ai voté» contribue à améliorer le taux
de participation). Par ailleurs, l’influence que Facebook (mais
aussi d’autres médias sociaux) peut avoir grâce à cet outil ne se
limite pas au taux de participation électorale; on peut se demander
si Facebook peut potentiellement fausser les résultats des élections
simplement en augmentant la participation au sein d’un seul groupe
d’électeurs bien précis, en l’occurrence les utilisateurs de ce
réseau social
.
1.3. Le
côté obscur des médias sociaux et la portée du présent rapport
13. Si les médias sociaux (et internet)
ont incontestablement un immense potentiel salutaire à nous offrir, en
tant que personnes et aussi à nos sociétés, il est également très
clair qu’ils engendrent de multiples conséquences néfastes sur nos
droits individuels et notre bien-être, sur le fonctionnement des
institutions démocratiques et sur le développement de nos sociétés.
Il existe un nombre incalculable de recherches sur les dangers qui
résultent de la mauvaise utilisation d’internet et des médias sociaux
et du comportement malveillant d’utilisateurs malintentionnés.
14. Malheureusement la liste est longue: guerre informatique,
cyberterrorisme, cybercriminalité et cyberfraude, cyberintimidation,
discours de haine et incitation à la violence et à la discrimination, cyberprédation,
harcèlement en ligne, pédopornographie, désinformation et manipulation
de l’opinion publique, influence indue sur les processus politiques,
notamment électoraux, etc. Par ailleurs, les comportements individuels
déviants entraînent des conséquences autodestructrices, telles que
la dépendance (aux jeux ou aux paris en ligne), et des défis dangereux,
voire mortels, que relèvent tout particulièrement les jeunes pour
obtenir plus de «J’aime» sur leurs comptes. Ces risques et dangers
ne sont pas toujours bien perçus ou compris.
15. Le présent rapport n’a pas pour objectif de couvrir un champ
de recherche aussi étendu. Il est axé sur le droit à la liberté
d’expression, y compris la liberté d’information
,
et sur le droit à la vie privée. En m’exprimant avec les termes
de la
Recommandation
CM/Rec(2018)2 du Comité des Ministres sur les rôles et les responsabilités
des intermédiaires d’internet, il arrive que les médias sociaux
– qui sont des intermédiaires d’internet – «contrôlent les contenus
et les classent, y compris au moyen de techniques de traitement automatisé
des données personnelles et, partant, peuvent exercer certaines
formes de contrôle qui influencent l’accès des utilisateurs aux
informations en ligne (…), ou encore qu’ils assurent d’autres fonctions
qui se rapprochent de celles des éditeurs» (préambule, paragraphe
5).
16. Les médias sociaux, comme acteurs essentiels de la régulation
du flux d’informations sur internet ont des répercussions significatives
sur les droits à la liberté d’expression, à la liberté d’information
et à la vie privée. Ces sujets ne sont pas une nouveauté pour l’Assemblée
parlementaire puisque par le passé, plusieurs rapports ont cherché
à identifier des mesures pour limiter, si ce n’est éliminer, le
risque d’abus dont internet est la cause dans ces domaines sensibles
.
Je souhaite me pencher à nouveau sur cette question actuelle principalement
parce que je suis convaincu qu’il est important d’étudier de plus
près les responsabilités que devraient assumer les médias sociaux
à cet égard.
17. Il s’agit de savoir si nous, en tant que responsables politiques,
devrions exhorter les médias sociaux à renforcer leur autorégulation,
afin de combattre de manière plus efficace les menaces qui pèsent
sur ces droits humains, et si, en tant que législateurs, nous devrions
renforcer le cadre juridique, pour imposer un plus haut niveau d’exigences
et des obligations plus strictes aux médias sociaux, afin de garantir
la protection efficace de ces droits. Mon analyse se fondera sur
les précédents travaux du Conseil de l’Europe
et
de l’Assemblée, ainsi que sur les excellentes contributions des
experts entendus par la commission
.
18. À mon sens le poids ne doit pas être porté seulement par les
médias sociaux (et autres opérateurs internet). Les autorités publiques
ont également des responsabilités claires dans ce domaine et l’objectif
n’est certainement pas de les dégager de ces responsabilités. Les
utilisateurs eux-mêmes ont des responsabilités; il faudrait les
aider à les comprendre et les épauler comme il se doit.
19. Cependant, les entreprises de médias sociaux sont les acteurs
qui ont profité, et profitent encore, des plus grands avantages
sur le plan économique; ils ont gagné de fait un énorme pouvoir
en tant que régulateurs du flux d’information, sans être suffisamment
tenus de rendre compte de la façon dont ils utilisent ce pouvoir. Il
convient, selon moi, de revoir et corriger les rôles et les responsabilités
des différents acteurs, afin que les autorités publiques, les médias
sociaux (et autres opérateurs internet) et les internautes unissent
leurs efforts. Nous devons agir ensemble pour défendre nos droits
en ligne et veiller à ce que les médias sociaux puissent offrir
tous leurs avantages, sans compromettre notre bien-être individuel
et social.
2. Liberté
d’expression
20. La liberté d’expression est
un principe essentiel de la démocratie; elle est, néanmoins, constamment
en danger. À chaque fois qu’un nouveau type de média apparaît, les
pouvoirs idéologiques, politiques et économiques en place développent
des stratégies et exercent des pressions pour contrôler la création
et la diffusion de contenu faites par son biais. Cela est arrivé
avec la presse, la radio et la télévision, et maintenant aussi avec
internet et les médias sociaux. Deux questions clé interconnectées
concernant la liberté d’expression et les médias sociaux sont la
définition de ses limites et le risque de censure arbitraire.
2.1. Les
limites de la liberté d’expression et le problème du contenu illicite
21. Les individus et les organisations
doivent avoir le droit de s’exprimer et de diffuser des informations
et des opinions par le biais des médias sociaux. Néanmoins, il est
communément admis que la liberté d’expression n’est pas absolue,
mais qu’elle est en réalité limitée par d’autres droits de l’homme
et libertés fondamentales. Aujourd’hui, les questions les plus controversées
qui attirent l’attention sur ces limites sont: l’instigation aux
comportements criminels, comme la propagande du terrorisme, l’incitation
à la violence ou à la discrimination, le discours de haine et le
désordre de l’information.
22. S’il est clair que la société et les individus doivent être
protégés de ces phénomènes, l’intervention des autorités publiques
et des opérateurs internet soulève des questions complexes, se heurte
à des obstacles techniques et juridiques, et n’est pas sans risques
pour les libertés individuelles. En particulier, même si, dans la
plupart des cas, le caractère illicite d’un contenu diffusé par
les média sociaux peut paraître évident, définir ce qui est illicite
n’est pas toujours simple.
23. Juste à titre d’exemple: même aux États-Unis, où les restrictions
à la liberté d’expression ne sont autorisées par le premier amendement
à la Constitution que dans des cas exceptionnels, un site de réseau social
peut être poursuivi s’il est prouvé qu’il héberge des messages ou
des contenus susceptibles d’encourager et de soutenir des actes
terroristes ou des organisations terroristes
.
Aucun d’entre nous ne saurait considérer cela comme étrange ou problématique
en soi. Cependant, nous savons aussi très bien que le concept même
de terrorisme peut être – et a été – utilisé pour renforcer la censure
et les représailles à l’encontre de journalistes voire d’internautes.
Dans un pays démocratique, il doit être assuré que, comme aux États-Unis,
les plateformes de médias sociaux et les fournisseurs d’internet
ne peuvent être poursuivis en justice que dans des scénarios spécifiques
où des messages incitent clairement à commettre des actes terroristes,
recrutent pour des organisations criminelles et encouragent l’endoctrinement
.
24. Les limites de la liberté d’expression sont censées être définies
de manière semblable en ligne et hors ligne. Cependant, la modération
des contenus sur les plateformes de médias sociaux pose deux problèmes distincts
qui méritent d’être soulignés: d’un côté, l’application des règles
en matière de contenus illégaux est bien plus difficile en ligne,
en raison du volume considérable d’informations ainsi diffusées
mais aussi de l’anonymat des auteurs; d’un autre côté, les accords
relatifs aux conditions de service peuvent limiter la publication
de contenu juridique sur des médias sociaux. Par conséquent, une
question clé est de savoir quelles sont les responsabilités (d’intérêt
général) susceptibles d’être imposées aux médias sociaux et dans quelle
mesure peut-on réglementer la modération des contenus par les plateformes
de médias sociaux. À cet égard, je pense que, dès lors qu’un média
social se comporte exactement comme un média traditionnel (fil d’actualités
Facebook, par exemple), il doit être soumis aux mêmes règles pour
garantir une compétition équitable. La révision de la directive
de l’Union européenne «Services de médias audiovisuels»
est un premier pas
dans ce sens.
2.2. Pouvoir
de contrôle de l’information diffusée sur les médias sociaux et
censure arbitraire
25. La question de la censure étatique
arbitraire sort du champ du présent rapport et est régulièrement traitée
par la commission dans le cadre de ces rapports sur la liberté des
médias et la sécurité des journalistes. Il y a néanmoins un aspect
qui est étroitement lié à la thématique du présent rapport, à savoir
le fait que les autorités nationales imposent leurs décisions aux
intermédiaires d’internet, y compris les médias sociaux, qui sont
parfois forcés à devenir complices d’atteintes à la liberté d’expression.
Lorsqu’il s’agit de régimes autoritaires (voire dictatoriaux), il
est difficile (voire peut-être impossible) de se soustraire aux
mesures de contrainte pouvant être exercées par les États; dans
ces contextes, nous ne pouvons qu’espérer que les plus puissants
intermédiaires d’internet trouvent le moyen d’opérer une résistance
discrète afin de contribuer à maintenir, même dans ces pays, quelques
espaces de liberté d’expression et d’information.
26. Néanmoins, face aux contenus réellement illicites, pour assurer
une protection efficace des droits individuels et du bien commun,
les autorités nationales et les initiatives sur la vérification
des faits doivent pouvoir compter sur une collaboration sans faille
des intermédiaires d’internet et des médias sociaux en particulier.
Comme je l’ai souligné avant, le nouveau contexte médiatique donne
aux médias sociaux un pouvoir considérable dans la gestion des flux
d’information, qui doit être exercé avec une responsabilité commensurable
à l’ampleur de ce pouvoir.
27. Les sociétés propriétaires des médias sociaux ont le pouvoir
de contrôler toutes les informations qui circulent publiquement
par ces canaux, d’en mettre en lumière certaines ou de les cacher,
voire de passer sous silence certains sujets ou certaines informations.
Ces sociétés ne se contentent pas de fixer les règles concernant
ce qui peut être posté et diffusé mais, dans des cas comme celui
de Facebook, elles demeurent aussi propriétaires de tous les contenus
créés et téléchargés sur la plateforme par les utilisateurs.
28. L’aspect positif de la situation est que les médias sociaux
peuvent devenir des alliés des autorités publiques pour détecter,
poursuivre et éliminer les contenus illicites. À cet égard, notre
Assemblée a déjà incité les médias sociaux et les autres fournisseurs
d’accès à internet à agir, par exemple afin de contribuer à lutter contre
des phénomènes comme la pédopornographie ou le discours de haine.
Mais il y a aussi des aspects négatifs.
29. Un premier problème est que cette collaboration avec les gouvernements
peut échapper à tout contrôle démocratique et tourner à des violations
graves des droits fondamentaux des utilisateurs, comme cela a été le
cas avec les pratiques de surveillance massive et d’intrusions à
large échelle révélées en 2013 par M. Edward Snowden
. S’il est vrai que, dans de tels
cas, la responsabilité incombe surtout aux gouvernements eux-mêmes,
les opérateurs d’internet peuvent se rendre complices de ces abus.
Cependant, ce n’est pas sur ce problème que je m’attarderai.
30. L’aspect négatif sur lequel je souhaite insister est que les
médias sociaux, en établissant et en appliquant leurs règles de
modération de contenu, peuvent devenir eux-mêmes des censeurs qui
suppriment à leur guise les publications et les informations mises
en ligne sur leurs sites, même si celles-ci ne sont pas illégales,
ce qui représente une menace pour la liberté d’expression. Il existe
de nombreux exemples de cas dans lesquels des déclarations et des
photographies ont été supprimées de la page personnelle d’utilisateurs, et
ce alors que Facebook et les autres médias sociaux prétendent ne
pas jouer de rôle éditorial, ni avoir de responsabilité dans ce
domaine. Le fait qu’ils suppriment des contenus peut également avoir
des répercussions sur les médias traditionnels. La BBC tient ainsi
à jour, depuis 2014, une liste des articles qu’elle a publiés sur
internet et qui ont été effacés des résultats de recherche Google
à la demande de personnes ou d’entreprises. Il s’agit d’une forme
de censure opaque qui ne respecte aucune obligation de rendre compte
ni de servir l’intérêt supérieur du public
.
31. Dans l’application d’une autorégulation développée dans le
but louable de prévenir la diffusion des contenus illicites, des
erreurs qui ne sont pas normales surviennent. Dans divers cas, il
a été reproché aux sociétés propriétaires des médias sociaux de
censurer arbitrairement les contenus; c’est ce qui s’est passé dans
le cas du mouvement féministe FEMEN, accusé par Facebook de «promouvoir
la pornographie» en raison de l’utilisation de la nudité lors de
ses manifestations
. D’autres cas
anomaux ont été la suppression de la photographie emblématique de
la fillette brûlée au napalm pendant la guerre du Viêt Nam, ainsi
que d’autres exemples d’œuvres d’art et de photographies ayant un
but éducatif.
32. Ces cas suscitent des interrogations à propos de l’attention
que les médias sociaux portent à la liberté d’expression et font
surgir des inquiétudes concernant le manque de clarté des règles
et des réglementations sur lesquelles les médias sociaux fondent
leurs décisions. Ils confirment l’importance d’examiner le rôle
que les médias sociaux jouent en tant que distributeurs d’informations
et la responsabilité éditoriale qui en découle, en gardant à l’esprit
la protection de ce droit de l’homme fondamental qu’est la liberté
d’expression et les conséquences sur l’état de droit.
3. Liberté
d’information
33. La possibilité pour chaque
personne d’avoir accès à une information de qualité – c’est-à-dire
à des informations exactes, fondées sur des faits, pertinentes et
équilibrées – est un élément fondamental des sociétés démocratiques.
D’un point de vue juridique, nous ne disposons pas d’un droit à
des informations purement véridiques et factuelles. Une information
parfaite n’existe pas dans la pratique: il y a toujours un certain
degré d’approximation et la perspective du narrateur. Par ailleurs,
aucune obligation générale n’impose de fournir des informations
qui sont 100% exactes, exhaustives, neutres, etc.; la satire et
la parodie, par exemple, ne sont pas censées être neutres et objectives
et nous savons que les journaux et les radiodiffuseurs ont et partagent
des opinions politiques. De plus, le droit à la liberté d’expression
(telle qu’il est garanti par l’article 10 de la Convention européenne
des droits de l’homme) couvre également les informations qui, délibérément
parfois, ne sont pas exactes ainsi que des points de vue qui peuvent
paraître choquants et blesser certaines personnes, voire même s’avérer
en contradiction avec les faits. En d’autres termes, la diffusion
de contenus inexacts et de piètre qualité ne constitue pas nécessairement
en soi un comportement illégal (donc répréhensible).
34. Certains acteurs assument cependant davantage de responsabilités
que d’autres. Par exemple, les citoyens attendent des pouvoirs publics
qu’ils fournissent des informations fiables et la législation nationale
sur la liberté d’information garantit (du moins dans une certaine
mesure) l’accès à ces données détenues par l’administration publique.
De même, les médias ont un rôle fondamental à jouer dans notre société démocratique
ainsi qu’une responsabilité en matière de défense de l’intérêt général,
en délivrant au public des informations de qualité; nous escomptons
un niveau élevé d’exactitude et de fiabilité des informations diffusées par
les médias, et encore plus par les médias de service public, hors
ligne et en ligne.
35. Dans l’idéal, les médias sociaux devraient être un canal par
lequel le public accède à une information de qualité, en évitant
les contenus manipulateurs et trompeurs qui pourraient entraîner
des fractures sociales. Même si les médias sociaux ne créent pas
eux-mêmes de contenu d’information, ils sont devenus un des principaux
fournisseurs d’informations pour une part importante de la population
européenne et mondiale. En ce sens, des initiatives devraient être
prises pour garantir que les médias sociaux constituent un moyen
fiable de diffuser et de consulter des informations exactes, équilibrées
et factuelles.
36. En effet, la liberté d’information devient une simple illusion
lorsque la qualité de l’information à laquelle le lecteur a accès
se réduit et que, nonobstant la prolifération des sources (dont
souvent la fiabilité est loin d’être vérifiée), le lecteur se trouve
enfermé – sans réellement s’en rendre compte – dans des bulles où
il ne trouve et ne peut accéder qu’à certaines sources d’information.
À cela s’ajoute le problème de la manipulation des opinions.
3.1. La
question du désordre informationnel
37. Depuis les dernières élections
présidentielles aux États-Unis en particulier, les médias sociaux
(et principalement Facebook) ont été accusés d’influencer les électeurs
et les résultats par le biais des informations dont ils autorisaient
la diffusion. De toutes les questions concernant ce sujet, celle
qui a attiré le plus d’attention est celle des «fausses informations».
Ce concept peut être plus largement décrit comme «les informations
fabriquées qui imitent les contenus présentés par les médias d’information
dans la forme mais pas dans le processus organisationnel ou l’intention»
. Cette définition générale recouvre
les contenus liés à la satire et à la parodie, à la fabrication
et à la manipulation d’informations ainsi qu’à la publicité et à
la propagande politique
.
Même si la terminologie «fausses nouvelles» est très populaire,
je parlerai ici de «désordre de l’information», un concept qui englobe
la mésinformation, la désinformation et l’information malveillante
. Entre autres effets
parallèles de la désinformation en ligne et d’autres types de désordres
de l’information
, on observe une généralisation de
la méfiance à l’égard du journalisme et des médias en général
.
38. Par ailleurs, les médias sociaux ont généralisé une nouvelle
sorte de consommation des informations. Dans le modèle traditionnel
hors ligne, celles-ci étaient et sont présentées et reçues comme
un ensemble structuré, hiérarchisées et contextualisées afin de
permettre aux utilisateurs d’interpréter le message et de lui donner
un sens
.
Les lecteurs savaient aussi que chaque média proposait les informations
dans des cadres particuliers et selon des perspectives différentes
et spécifiques
. La situation a changé avec la popularisation des
informations diffusées par le biais des médias sociaux. Dans ce
nouvel environnement, les contenus se répandent et atteignent les
internautes de manière isolée, sans contexte et avec un lien ténu
vers l’organe de presse qui a publié les informations.
39. Ainsi, les utilisateurs de Facebook sont exposés à des gros
titres mais ne disposent d’aucune indication formelle pour les interpréter
ou détecter les partis pris, ou encore évaluer la qualité du média
qui présente l’information résumée dans ce gros titre. Les fournisseurs
d’information classiques et de qualité tels que la BBC ou Euronews
figurent à côté de liens provenant de sites satiriques comme The
Onion, ou de médias partisans comme Breitbart, Junge Freiheit, Libertad
Digital ou Fria Tider.
3.2. Un
accès biaisé à des sources d’information présélectionnées
40. Les informations et les nouvelles
atteignent le public et les utilisateurs des médias sociaux essentiellement
grâce à un processus de sélection automatisé et personnalisé, déterminé
par des algorithmes soigneusement conçus. Ces algorithmes sont des
éléments fondamentaux du développement technologique des médias
sociaux et autres plateformes et d’un environnement basés sur internet,
même si seulement 29 % de la population sait que les algorithmes
sont responsables des informations qui apparaissent sur leurs fils personnels
et sur les fils d’actualités des médias sociaux
.
41. La sélection algorithmique ne garantit pas une diffusion équilibrée
et impartiale des informations. En fait, le filtrage algorithmique
peut être faussé par des éléments humains et technologiques qui
prédéterminent la nature, l’orientation ou l’origine des informations
filtrées
.
En ce sens, l’un des plus grands dangers de l’intelligence artificielle
pourrait être la prolifération d’algorithmes biaisés
.
42. L’idée à la base du filtrage algorithmique est une sélection
d’informations adaptées aux intérêts personnels et aux préférences
de chaque utilisateur. D’un certain point de vue, nous pouvons considérer
qu’il s’agit d’un service nécessaire, car l’alternative serait l’obligation
pour l’utilisateur d’internet d’aller chercher l’information dont
il a besoin au milieu d’un océan d’informations qui sont pour lui
sans intérêt. Les chances de trouver des informations pertinentes
dépendraient de la capacité de chaque utilisateur à utiliser correctement des
outils de recherche lui permettant de choisir des critères de sélection
variés, ainsi que du temps qu’il peut consacrer à cette recherche
et de son effort pour affiner progressivement sa recherche. Il est
sans doute plus facile de se fier à des algorithmes, qui effectuent
la recherche à notre place en tenant compte du «profil qu’ils ont
dressé de nous», en analysant les données sur nous qui rentrent
dans le système. Mais est-ce sans risques?
43. Il nous a été rappelé l’omniprésence des interactions entre
un agent logiciel intelligent (ALI) et les utilisateurs humains
dans les situations de la vie quotidienne comme l’accès à l’information,
les divertissements ou les achats; et nous avons été avertis que
dans le cadre de telles interactions, l’agent logiciel intelligent
facilite l’accès de l’utilisateur au contenu, ou contrôle certains
autres aspects de l’expérience de l’utilisateur et ne se veut pas
neutre quant aux résultats qui découleront des choix de celui-ci.
Une recherche réalisée par des experts a mis en lumière que la connaissance
des biais et heuristiques des utilisateurs permet de les détourner
d’un cheminement plus rationnel. L’étude souligne également que
«tout en poursuivant un objectif à court terme, un ALI pourrait
finir par induire un changement des actions immédiates de l’utilisateur (par
exemple, partager un article ou regarder une vidéo) mais aussi des
attitudes et croyances à long terme, en contrôlant simplement l’exposition
d’un utilisateur à certains types de contenus»
.
44. Comme résultat de la sélection algorithmique, par exemple,
chaque fil d’actualité des utilisateurs de Facebook est unique.
Le processus est donc radicalement différent de l’exposition massive
à un même agenda médiatique et une même sélection de sujets communs,
comme c’était le cas avec les médias traditionnels. Cette nouvelle
tendance dans la consommation des informations entraîne une absence
d’exposition à des sources diverses d’information. Ce phénomène
est connu sous le nom de «bulle de filtres» ou «chambre d’écho»,
métaphore qui tente d’illustrer la situation dans laquelle les internautes
reçoivent uniquement des informations qui renforcent leurs préjugés
et leurs points de vue. Ce facteur contribue à la radicalisation
et au renforcement des partis pris dans la société.
3.3. Contrôle
de l’information et manipulation
45. Le risque de manipulation de
l’opinion publique par le biais du contrôle des sources d’information
n’est pas nouveau. Edward Bernays a écrit dans son ouvrage précurseur,
Propaganda:
«La manipulation consciente,
intelligente, des opinions et des habitudes organisées des masses
joue un rôle important dans une société démocratique. Ceux qui manipulent
ce mécanisme social imperceptible forment un gouvernement invisible
qui dirige véritablement le pays.
Nous sommes gouvernés, nos
esprits sont façonnés, nos goûts éduqués, nos idées suggérées, en grande
partie par des personnes dont nous n’avons jamais entendu parler
(…)
Quelle que soit l’attitude
qu’on choisit d’avoir envers cette condition, il reste un fait que,
dans presque tous les actes de notre vie quotidienne, que ce soit
dans le domaine de la politique ou des affaires, dans notre conduite
sociale ou notre réflexion éthique, nous sommes dominés par un nombre
relativement restreint de personnes (…) qui comprennent les processus
mentaux et les modèles sociaux des masses. Ce sont eux qui tirent
les fils qui contrôlent l’esprit du public, qui exploitent de vieilles
forces sociales et inventent de nouvelles façons de lier et de guider
le monde. »
46. Bernays parlait de la société américaine en 1928. Aujourd’hui,
avec internet, nous parlons de ces quelques personnes qui, grâce
à internet et aux médias sociaux, sont bien placées pour prendre
le contrôle de toute l’humanité. De nos jours, il est possible de
réaliser à l’échelle mondiale ce qui, dans les années trente, pouvait
l’être au niveau national grâce au monopole de la radio et du cinéma
d’actualités
. Par ailleurs, des mécanismes
de prévention de ces abus ont été mis en place au plan national
et non à l’échelon mondial, en raison notamment de problèmes juridictionnels.
4. Droit
au respect la vie privée
47. Les droits au respect de la
vie privée et à la protection des données à caractère personnel
sont consacrés par l’article 8 de la Convention européenne des droits
de l’homme et les principes clés dans ce domaine sont énoncés par
la Convention du Conseil de l’Europe pour la protection des personnes
à l’égard du traitement automatisé des données à caractère personnel
(STE no 108). Les données à caractère
personnel, en tant qu’éléments de «l’auto-détermination informationnelle»
font partie intégrante de tout individu; elles ne peuvent donc pas
être vendues, louées ou divulguées. Les personnes doivent avoir
la maîtrise de leurs données et la possibilité de décider de leur
traitement, y compris de s’y opposer à tout moment.
48. Sir Tim Berners-Lee (l’inventeur du World Wide Web), lors
de l’ouverture du Sommet du web qui s’est tenu à Lisbonne le 5 novembre 2018,
a affirmé que le web fonctionnait de façon dystopique, en citant
des menaces telles que les abus en ligne, la discrimination, les
préjugés, les partis pris, la polarisation, les fausses informations
et la manipulation politique, entre autres. Par conséquent, il a
invité les gouvernements, les entreprises privées et les citoyens
à se prononcer en faveur d’un nouveau «Contrat pour le web» visant
à protéger les libertés et les droits individuels sur internet
.
Ce contrat, qui devrait être achevé et publié en mai 2019, énoncera
les
principes fondamentaux relatifs à une utilisation éthique et transparente
d’internet pour tous les participants. Je mentionnerai ici tout
particulièrement deux principes fondamentaux, l’un à l’intention des
gouvernements et l’autre à l’intention des entreprises privées:
«Respecter le droit fondamental des personnes à la vie privée afin
que tout le monde puisse utiliser internet librement, en toute sécurité
et sans crainte» et «Respecter la vie privée et les données personnelles
des consommateurs afin que les personnes contrôlent leurs vies en
ligne».
49. La BBC élabore actuellement un concept d’«Internet de service
public». Son modèle s’articule autour de quatre grands thèmes, à
commencer par les «Données contrôlées par le public», qui supposent
un engagement à «traiter les données comme un bien public, en les
remettant entre les mains du public, en renforçant la protection
de la vie privée et en donnant au public la possibilité de disposer
librement et de garder le contrôle des données qu’ils créent»
.
50. Le droit au respect de la vie privée est trop souvent profondément
touché par les technologies numériques et sociales. L’une des questions
qui se posent en la matière est l’exploitation des informations personnelles.
Les technologies numériques permettent aux plateformes et aux fournisseurs
de services de rassembler et d’analyser des informations multiples
sur leurs utilisateurs. Dans certains cas, ces données sont traitées
avec des fins légitimes (comme l’évaluation de la performance des
contenus ou l’amélioration de certaines fonctionnalités de la plateforme).
Dans d’autres cas, cependant, la manière où ces informations sont utilisées
préoccupe.
51. Le rapport de notre commission sur «Internet et la politique:
les effets des nouvelles technologies de l’information et de la
communication sur la démocratie»
, par exemple, soulevait la question
du «sondage sémantique», une technique qui permet d’analyser de
très nombreuses données collectées en ligne, afin d’en tirer des
conclusions sur l’opinion publique. Les sondeurs utilisent des méthodes
de collecte et d’analyse des données sur Twitter et/ou d’autres
réseaux dont les utilisateurs ignorent tout, ce qui soulève des
inquiétudes concernant le respect de la vie privée, en plus du risque
de donner une vision faussée de l’opinion publique pendant les campagnes
électorales par exemple (voir paragraphes 60 et 61). Le même rapport
comporte une double mise en garde: d’une part, «nos données et les
informations nous concernant et d’autre part l’exercice de libertés
publiques sur le web font l’objet de manipulations» et, d’autre
part, «les internautes n’ont aucun moyen de connaître les détails
du fonctionnement de l’algorithme de traitement» (paragraphe 68)
.
Le processus de modernisation de la Convention no 108
avait entre ses principaux objectifs de remédier à ces problèmes
au plan international et de renforcer les droits des individus.
52. J’ajouterais qu’une fois les données sensibles collectées,
il est difficile d’écarter le risque qu’elles ne tombent entre les
mains d’organisations ou d’États aux intentions douteuses et ne
soient ensuite utilisées à mauvais escient. Si l’affaire Cambridge
Analytica illustre d’éventuelles méconduites de la part d’organisations privées,
je tiens également à rappeler la décision récente (mars 2018) du
Gouvernement chinois de considérer que les données de ses propres
citoyens sont propriété de l’État. À la suite de cette décision,
plusieurs prestataires d’informatique en nuage (dont Microsoft et
Apple) ont suspendu leurs «services dans les nuages» vis-à-vis des
citoyens chinois, les obligeant à rapatrier leurs données stockées
à l’étranger sur un serveur basé en Chine, avec toutes les conséquences
que cela peut engendrer. D’autres pays, y compris européens, pourraient
malheureusement suivre l’exemple chinois.
4.1. Information,
consentement des utilisateurs et paramètres de confidentialité
53. Les utilisateurs n’ont pour
la plupart pas connaissance des données qu’un service particulier
peut collecter à partir de leur activité. L’un des exemples les
plus parlants est ce que Facebook appelle les «posts autocensurés».
Ce site de réseau social enregistre et conserve tout ce que les
utilisateurs publient et écrivent sur le site – chaque publication,
chaque commentaire – même lorsqu’ils sont ensuite supprimés par
les utilisateurs et jamais publiés.
54. Dans ce contexte, l’information des utilisateurs et leur consentement
éclairé (lequel, néanmoins, n’est pas requis dans tous les cas)
sont fondamentaux. Lorsque les utilisateurs s’inscrivent et accèdent
à un site de réseau social, ils acceptent un ensemble de conditions
générales d’utilisation, associées à un contrat, mais dont les implications
sont rarement comprises. Elles sont généralement présentées aux
utilisateurs dans un jargon obscur et complexe, leur principal but
étant d’éviter les actions en justice plutôt que de communiquer clairement
les implications de l’utilisation de ces plateformes
.
4.2. Profilage
de données, prise de décision automatisé et manipulation
55. La collecte d’innombrables
informations à caractère personnel sur les utilisateurs est liée
à un autre usage inquiétant, qui est appelé «publicité micro-ciblée»
ou «profilage de données». Les plateformes de médias sociaux utilisent
l’intelligence artificielle pour étiqueter et classer leurs utilisateurs
par catégorie selon leur comportement, leur psychologie, etc. Un
problème est que ces catégories peuvent révéler des croyances ou
des orientations dont les utilisateurs voudraient que des tiers
n’aient pas connaissance. Par exemple, on sait que Facebook a autorisé
des annonceurs à cibler des groupes identifiés par son algorithme
comme des «auteurs de discours de haine à l’encontre des juifs»
.
Une étude montre que la classification automatique des données peut
être utilisée pour identifier des utilisateurs homosexuels, même
si aucune information n’est explicitement fournie à la plateforme
sur l’orientation sexuelle des utilisateurs
.
56. Les experts nous ont avertis que l’analyse des mégadonnées
et l’intelligence artificielle servaient à générer des inférences
et des prévisions contre-intuitives et non vérifiables sur des comportements,
des préférences et la vie privée d’individus, et cela ouvre la voie
à de nouvelles possibilités de prise de décision discriminatoire,
subjective et intrusive. Il est proposé à cet égard d’examiner la
possibilité de reconnaître un nouveau droit à des «inférences raisonnables»
.
Si cette proposition me séduit, je ne suis pas certain qu’il faille
créer un nouveau droit, car, à mon sens, lesdites inférences sont
déjà visées par l’article 8 de la Convention européenne des droits
de l’homme et par la «Convention 108 modernisée»
.
57. Le 13 février 2019, le Comité des Ministres a adopté une
Déclaration
sur les capacités de manipulation des processus algorithmiques. Puisque les outils de l’apprentissage machine ont de
plus en plus la capacité non seulement de prédire les choix mais
aussi d’influencer les émotions et les pensées, parfois de manière subliminale,
le Comité des Ministres a alerté les États membres du Conseil de
l’Europe sur le risque que représente pour les sociétés démocratiques
le fait qu’il soit possible d’employer les technologies numériques avancées,
en particulier les techniques de micro-ciblage, pour manipuler et
contrôler non seulement les choix économiques, mais aussi les comportements
sociaux et politiques. La Déclaration signale, entre autres, le pouvoir
significatif que les avancées technologiques confèrent à ceux –
entités publiques ou acteurs privés – qui peuvent utiliser des outils
algorithmiques sans supervision ou contrôle démocratique adéquat
et souligne qu’il incombe au secteur privé d’agir avec équité, transparence
et responsabilisation en suivant les orientations données par les
institutions publiques.
5. Pistes
de réflexions
5.1. Protéger
la liberté d’expression et la liberté d’information tout en évitant
les abus
58. Il va de soi que les entreprises
de médias sociaux doivent se conformer aux obligations juridiques
de chaque système national et lutter contre la propagation de contenus
illicites par le biais des profils de leurs utilisateurs. Pour qu’elles
puissent le faire efficacement, sans tomber dans des formes de censure,
il incombe, tout d’abord, au législateur de définir aussi clairement
que possible quel contenu est répréhensible, par exemple quels éléments
caractérisent la «propagande du terrorisme», le «discours de haine»
ou la «diffamation», et d’indiquer clairement les obligations des
entreprises de médias sociaux qui se trouvent confrontées à ces
phénomènes (par exemple, l’obligation de mettre en place des mécanismes
de détection des contenus illicites et soit de les bloquer à titre
provisoire, soit de les signaler à l’autorité compétente à ordonner
leur enlèvement)
. Il
appartient, en effet, au législateur – et seulement à lui – de fixer
les limites de la liberté d’expression, dans le respect des obligations
internationales existant à cet égard et notamment celles qui découlent
de l’article 10 de la Convention européenne des droits de l’homme.
5.1.1. Améliorer
les politiques en matière de contenu des médias sociaux
59. Les fournisseurs de services
de médias sociaux ne devraient établir aucune limitation à la circulation des
contenus, des idées et des faits (soit une interprétation précise
d’événements historiques) autre que celles définies par les règlementations
nationales. Les idées et les contenus politiques légaux (même si controversés)
en aucun cas ne devraient être passés sous silence ou censurés sur
les espaces de médias sociaux. Même dans l’éventualité où ces fournisseurs
déterminent leurs propres règles en matière de contenus, le droit
à la liberté d’expression, en tant que droit fondamental, est inaliénable
et l’acceptation par les usagers de clauses contractuelles standard
ne saurait décharger les entreprises de médias sociaux de l’obligation
de respecter ce droit. Par ailleurs, les normes établies par les
fournisseurs de services de médias sociaux concernant les contenus
admis (ou non) doivent être rédigées de manière claire et univoque,
et devraient être accompagnées, le cas échéant, d’explications et
d’exemples (fictifs) de contenus dont la diffusion est prohibée.
5.1.2. Améliorer
la qualité de l’information et combattre la désinformation
60. Les entreprises de médias sociaux
doivent prendre activement part à l’identification des contenus inexacts
ou faux qui circulent par leur biais et en avertir leurs utilisateurs.
Les techniques de détection automatique – basées principalement
sur l’analyse d’indices linguistiques et l’analyse de réseaux
–
peuvent aider à atteindre ce résultat.
61. Par exemple, l’analyse du réseau permet de repérer des
bots (c’est-à-dire des comptes d’utilisateurs exploités
par un logiciel utilisé pour diffuser, republier et attirer l’attention
sur les fausses informations diffusées) par leur comportement. Dès
lors, les sites de médias sociaux pourraient développer des procédures et
des mécanismes visant à exclure de leur contenu «tendance» les messages
générés par des bots ou du moins à signaler les comptes concernés
et les messages qu’ils republient. Certains médias sociaux explorent en
ce moment une autre piste prometteuse, qui consiste à bloquer les
fonctions de partage et d’appréciation («J’aime») sur les contenus
suspects. Cependant, les solutions technologiques et automatisées
pourraient ne fournir qu’une solution partielle au problème car
elles ne permettront jamais de prouver l’authenticité d’une information
dans sa globalité et portent essentiellement sur les modèles de
distribution
.
62. Il est aussi possible d’encourager l’évaluation collaborative
et sociale des sources et des informations distribuées. Les membres
de la communauté en ligne pourraient évaluer l’exactitude et la
qualité des informations qu’ils consultent et sur cette base un
classement pourrait être établi, par exemple en calculant une note
moyenne à partir des votes des utilisateurs (comme c’est le cas
avec les évaluations de TripAdvisor ou Google Ratings). Les internautes
pourraient aussi avoir la possibilité de signaler de fausses informations ou
des contenus inexacts; lorsque plusieurs signalements sont détectés,
la plateforme, après une vérification attentive de la part de professionnels,
pourrait ajouter une étiquette ou un texte indiquant qu’il existe
des doutes sur l’exactitude du contenu.
63. Nous devons toutefois avoir conscience du fait que de tels
mécanismes de contrôle collectif peuvent facilement être manipulés
et orientés, au-delà même des bonnes intentions de leurs créateurs
.
Plusieurs utilisateurs pourraient prendre le contrôle d’une information
s’ils se mettent d’accord et coordonnent leurs efforts pour voter
de manière fallacieuse ou la contester. Ainsi, des centaines de
partisans d’un candidat politique donné pourraient s’organiser pour
voter contre des informations qui présentent les responsables politiques
d’un autre courant de manière positive. Des solutions existent néanmoins
pour éviter cette situation. Par exemple, un très grand nombre de
votes ou d’avis devrait être requis pour qualifier une information d’inexacte,
puisque les systèmes d’évaluation sociale sont plus fiables lorsqu’ils
sont basés sur un grand nombre de votes. Ce système pourrait mieux
fonctionner sur Facebook, environnement où il est difficile de mettre
en place des
bots pour manipuler
le système (en votant massivement contre une information, par exemple).
64. Des initiatives pourraient aussi être mises en œuvre hors
ligne. Les médias principaux et alternatifs ont lancé des sites
internet axés sur certaines sections et d’autres projets pour débusquer
les fausses informations et lutter contre la désinformation au moyen
d’initiatives basées sur la vérification des faits, qui pourraient permettre
de contrebalancer la circulation d’informations trompeuses et mensongères,
comme l’a indiqué le rapport (en anglais) de la Commission européenne
sur
«Une
approche multidimensionnelle à la désinformation en ligne».
65. Les sites de médias sociaux pourraient concevoir un système
de marquage graphique des contenus provenant de fournisseurs d’informations
de qualité
. Cette reconnaissance
pourrait être accordée aux médias répondant à certaines conditions,
comme par exemple les suivantes:
a. la
majeure partie de leurs contenus sont des informations concernant
des événements présentant un intérêt civique et social;
b. la plupart de leur personnel est constitué de journalistes
professionnels (par exemple, titulaires d’un diplôme universitaire
en sciences de la communication ou d’un certificat professionnel
équivalent);
c. un pourcentage très élevé de leurs informations (par exemple
99 %) se révèlent être exactes et basées sur des faits.
66. La coopération entre les médias sociaux et les médias traditionnels
est un moyen essentiel pour combattre le désordre informationnel.
À cet égard, je salue et souhaite soutenir la
Journalism
Trust Initiative (JTI), lancée par Reporters sans frontières
(RSF) et ses partenaires, l’Union européenne de radio-télévision (UER),
l’Agence France-Presse (AFP) et le Global Editors Network (GEN).
La JTI s’inscrit dans une démarche d’autorégulation volontaire visant
à mettre en place un système qui récompense les médias fournissant
des garanties de transparence, de vérification de l’information
et de correction, d’indépendance éditoriale et de respect des règles
déontologiques. À présent, la distribution algorithmique du contenu
en ligne n’intègre pas un «facteur intégrité» et tend à amplifier
le sensationnalisme, la rumeur, le mensonge et la haine. Pour inverser cette
logique, le projet développe actuellement des critères lisibles
par les machines, valables pour les médias grands ou petits, dans
les domaines de l’identité et de la propriété des médias, des méthodes
et de la déontologie journalistiques.
67. Dernier point mais non le moindre, les partages individuels
de contenus sont un facteur déterminant dans la diffusion de fausses
informations sur les médias sociaux: tant qu’une personne croit
et partage une fausse information, celle-ci continuera son chemin
dans la sphère publique. Des efforts sont donc nécessaires pour
améliorer l’éducation aux médias et développer des attitudes et
des réflexions critiques envers les contenus médiatiques. L’éducation
aux médias numériques tente de développer des compétences en matière de
recherche, d’utilisation et d’évaluation des informations sur internet
. Il est fondamental
que ces compétences incluent la compréhension, la détection et la
prévention de la diffusion de fausses informations et d’autres types
de désinformation. Notre commission prépare un rapport spécifique
sur ce thème, auquel je renvoie
.
5.1.3. Assurer
la diversité des sources, des sujets et des points de vue
68. Les entreprises de médias sociaux
ont tendance à soutenir que la personnalisation des contenus proposés
à leurs utilisateurs est un élément clé de leur modèle économique,
mais les études montrent que la personnalisation des contenus est
compatible avec le fait de présenter une plus grande diversité de
sujets aux utilisateurs finaux
.
Des algorithmes peuvent être conçus et mis en place pour encourager
la pluralité et la diversité des avis, des opinions et des mentalités
.
69. Dans l’idéal, les entreprises devraient prendre des mesures
d’évaluation et d’audit externe visant à déterminer que leurs algorithmes
ne sont pas biaisés et favorisent la pluralité ou la diversité des
faits, des points de vue et des opinions. Cela étant, la transparence
de ces algorithmes est insuffisante pour qu’ils soient évalués ou
analysés; mais cette réalité ne devrait pas empêcher d’évaluer les
résultats. Des tests pourraient être menés afin de détecter le type
de contenu que chaque algorithme filtre et sélectionne et le type
de contenu médiatique qui apparaît sur le fil d’actualité des utilisateurs.
Même si aucun mécanisme ne rend cette recommandation obligatoire,
un «label de bonnes pratiques» pourrait être octroyé aux opérateurs
de l’internet dont les algorithmes sont conçus pour favoriser la
sélection de contenus pluriels et qui permettent ainsi une exposition
pluraliste sur le plan idéologique.
70. Une autre idée intéressante s’appuie sur la possibilité d’élargir
le nombre des «boutons de réactions» (comme ceux de Facebook permettant
d’exprimer les réactions «J’adore», «Waouh» ou «Triste») et d’introduire
un bouton «important», afin de renforcer la visibilité des questions
pertinentes mais au contenu à faible impact émotionnel. Cela permettrait
d’accroître la portée des contenus pertinents et de les faire passer devant
les contenus indifférents et hors propos partagés par les déclencheurs
émotionnels
.
5.2. Renforcer
le contrôle des usagers sur leurs données
71. J’estime que le droit à la
vie privée implique que les usagers doivent avoir la possibilité
de réglementer l’accès des tiers à leurs données à caractère personnel,
lesquelles sont collectées par les plateformes de médias sociaux
comme un élément clé de leur plan d’affaires. Selon le préambule
de Convention 108 modernisée: «Il est nécessaire de garantir la
dignité humaine ainsi que la protection des droits de l’homme et des
libertés fondamentales de toute personne, et (…) l’autonomie personnelle,
fondée sur le droit de toute personne de contrôler ses propres données
à caractère personnel et le traitement qui en est fait.» Il n’en
est pas ainsi aujourd’hui. Le scandale Cambridge Analytica n’est
que la partie émergée d’un iceberg de pratiques douteuses, que nous
ne pouvons ignorer davantage.
5.2.1. Information,
consentement des utilisateurs et paramètres de confidentialité
73. Un moyen d’améliorer la lisibilité des clauses et conditions
contractuelles que les utilisateurs doivent accepter serait d’élaborer
des visuels résumant les informations contenues dans ces documents
juridiques, cette méthode s’étant révélée garantir une meilleure
compréhension des informations complexes.
74. À cet égard, des chercheurs
proposent que les entreprises
adoptent des politiques de confidentialité présentées sous la forme
de «labels nutritionnels» et que les informations puissent être
résumées dans un tableau, plutôt que dans une série de paragraphes.
Ce «label» devrait répondre au moins aux questions suivantes:
- Qui peut voir ce que je publie?
- Quelles informations seront accessibles me concernant?
- Quelles données seront collectées me concernant?
- Que ferez-vous de ces données?
- Que ferez-vous de mes contenus?
- Qui peut me contacter ou m’atteindre?
75. Dans l’idéal, les utilisateurs devraient non seulement pouvoir
obtenir ces informations, mais aussi établir des règles et adapter
les réponses à ces questions. Il pourrait être demandé aussi que
les paramètres de confidentialité soient toujours définis par défaut
au plus haut niveau de protection. La plupart des utilisateurs ne
changent jamais ces paramètres; par conséquent, les entreprises
de médias sociaux définissent le niveau de restriction le plus faible
afin de collecter le plus grand nombre d’informations possible.
Modifier cela et faire en sorte que les conditions soient obligatoirement
définies avec les options les plus restrictives entraînerait une protection
plus élevée pour tous les utilisateurs et pas seulement ceux qui
ont des compétences numériques ou qui ont une meilleure connaissance
des problèmes en matière de protection des données et de confidentialité.
76. D’après les lois sur la protection des données et le Règlement
général sur la protection des données (RGPD) de l’Union européenne,
les opérateurs d’internet (à l’instar de tout contrôleur de données)
doivent avoir une base juridique valide pour collecter les données
des utilisateurs, mais plusieurs ont mis en place un vaste ensemble
de pratiques abusives, afin de manipuler les utilisateurs et de
les forcer à choisir les options et paramètres de confidentialité
les moins restrictifs. Par exemple, certains services ont choisi
des interfaces contre-intuitives qui, lorsqu’ils collectent différentes
catégories d’informations, ne laissent le choix aux utilisateurs
qu’entre deux boutons sans étiquette, ni texte joint. L’un des boutons
était rouge et l’autre vert. Contre toute attente, le choix «rouge»
entraînait l’acceptation de ces conditions par l’utilisateur. J’estime
qu’il convient d’accorder une attention particulière à ce type de
pratiques abusives qui doivent être détectées et réprimandées, voire
punies.
77. En outre, les conditions et les pratiques inacceptables devraient
être inscrites sur une liste noire et prohibées, afin de protéger
les individus des comportements abusifs des entreprises de médias
sociaux et d’internet. Tel devrait être le cas, par exemple, de
la vente de données à caractère personnel par les courtiers en données,
qui ne devrait être permise en aucune circonstance.
78. Un autre principe clé de la protection des données (qui est
maintenant inscrit aussi dans l’article 17 du RGPD) est le droit
à l’effacement: les personnes concernées ont le droit d’obtenir
du responsable du traitement l’effacement, dans les meilleurs délais,
de données à caractère personnel les concernant, y compris en cas
de retrait d’un consentement donné antérieurement.
79. Cela signifie que la plateforme devrait aussi effacer ces
informations de ses serveurs et ne plus les traiter ni les inclure
sur le profil et les informations agrégées de l’utilisateur. Il
ne devrait plus exister de distinction entre les «informations visibles»
et les «informations invisibles». Cela permettrait aussi de mettre fin
à la collecte par des entreprises comme Facebook d’informations
concernant l’activité des utilisateurs sur d’autres pages internet
lorsque le site du réseau social est ouvert dans un autre onglet
du navigateur.
80. Je tiens à souligner que la Convention 108 modernisée (qui
n’est malheureusement pas encore en vigueur) se veut un corpus de
principes extrêmement clairs, en particulier celui de légitimité
du traitement des données qui doit avoir pour fondement juridique
le consentement valide (et donc éclairé) des utilisateurs ou un autre
motif légitime prévu par la loi, ainsi que les principes de transparence
et de proportionnalité du traitement de données, de minimisation
des données, de respect de la vie privée dès la conception et de
respect de la vie privée par défaut; les responsables du traitement,
tels que définis à l’article 2 de la Convention 108 modernisée,
devraient être tenus de prendre toutes les mesures appropriées afin
de garantir les droits des personnes concernées, comme énoncés à
son article 9.1, selon lequel:
«Toute personne a le droit:
a. de ne pas être soumise à
une décision l’affectant de manière significative, qui serait prise
uniquement sur le fondement d’un traitement automatisé de données,
sans que son point de vue soit pris en compte;
b. d’obtenir, à sa demande,
à intervalle raisonnable et sans délai ou frais excessifs, la confirmation
d’un traitement de données la concernant, la communication sous
une forme intelligible des données traitées, et toute information
disponible sur leur origine, sur la durée de leur conservation ainsi
que toute autre information que le responsable du traitement est
tenu de fournir au titre de la transparence des traitements (…);
c. d’obtenir, à sa demande,
connaissance du raisonnement qui sous-tend le traitement de données, lorsque
les résultats de ce traitement lui sont appliqués;
d. de s’opposer à tout moment,
pour des raisons tenant à sa situation, à ce que des données à caractère personnel
la concernant fassent l’objet d’un traitement, à moins que le responsable
du traitement ne démontre des motifs légitimes justifiant le traitement
qui prévalent sur les intérêts, ou les droits et libertés fondamentales
de la personne concernée;
e. d’obtenir, à sa demande,
sans frais et sans délai excessifs, la rectification de ces données
ou, le cas échéant, leur effacement lorsqu’elles sont ou ont été
traitées en violation des dispositions de la présente Convention;
f. de disposer d’un recours
(…) lorsque ses droits prévus par la présente Convention ont été
violés;
g. de bénéficier, quelle que
soit sa nationalité ou sa résidence, de l’assistance d’une autorité
de contrôle (…) pour l’exercice de ses droits prévus par la présente
Convention.»
81. Les États membres du Conseil
de l’Europe devraient prendre les mesures nécessaires pour ratifier
au plus tôt la Convention 108 modernisée, et dans l’intervalle,
vérifier et adapter leur réglementation afin de veiller à leur cohérence
avec ses principes et d’assurer la protection effective des droits
des personnes concernées consacrés par cet instrument. Les Parties
à la Convention 108 qui ne sont pas membres du Conseil de l’Europe devraient
prendre les mesures nécessaires pour une entrée en vigueur rapide
du protocole d’amendement.
5.2.2. Superviser, corriger et refuser le
profilage des données
82. Tout profilage devrait respecter
la
Recommandation
CM/Rec(2010)13 du Comité des Ministres sur la protection des personnes
à l’égard du traitement automatisé des données à caractère personnel
dans le cadre du profilage.
83. Le 28 janvier 2019, le Comité consultatif de la Convention
108 a publié des
Lignes
directrices sur l'intelligence artificielle et la protection des
données. Ces lignes directrices visent à aider les décideurs politiques,
les développeurs de l’intelligence artificielle (IA), les fabricants
et les prestataires de services à garantir que les applications
d’IA ne portent pas atteinte au droit à la protection des données.
Le Comité de la Convention 108 souligne que la protection des droits
de l’homme, notamment le droit à la protection des données à caractère
personnel, est essentielle lors du développement ou de l’adoption
d’applications d’IA, en particulier lorsque ces dernières sont utilisées
dans des processus de décision, et qu’elle devrait se fonder sur les
principes de la Convention 108 modernisée. En outre, toute application
d’IA devrait veiller tout particulièrement à éviter et atténuer
les risques potentiels du traitement des données personnelles et
permettre un contrôle significatif du traitement des données et
de ses effets par les personnes concernées. Ces lignes directrices
sur l’IA font référence à d’importants enjeux déjà abordés dans
les
Lignes
directrices sur la protection des personnes à l’égard du traitement
des données à caractère personnel à l’ère des mégadonnées, et à «la nécessité d’assurer la protection de l’autonomie
personnelle, fondée sur le droit de toute personne de contrôler
ses propres données à caractère personnel et le traitement qui en
est fait».
84. Dès lors, les utilisateurs devraient avoir le droit de superviser,
d’évaluer et, idéalement, de refuser le profilage. L’opacité des
algorithmes des plateformes de médias sociaux rend cela difficile,
mais nous pouvons appeler les opérateurs de l’internet à aussi mettre
en œuvre des bonnes pratiques à cet égard, et demander aux autorités
publiques de forcer les opérateurs de l’internet à aller dans la
bonne direction s’ils ne veulent pas le faire spontanément. Par
exemple, les gouvernements pourraient encourager les entreprises
de médias sociaux à inclure un élément de confidentialité permettant
aux utilisateurs de vérifier toutes les «microcatégories» dans lesquelles
ils ont été inclus et de déterminer, s’ils le souhaitent, les catégories
qui ne doivent pas s’appliquer à eux.
85. Concernant les publicités micro-ciblées, il conviendrait d’ajouter
un élément dans les publications mises en valeur (c’est-à-dire payées
ou publicitaires) et les publications à portée interne (celles qui
sont vues par l’utilisateur en dehors des campagnes promotionnelles).
Cet élément, qui pourrait être appelé «pourquoi je vois cela», devrait
fournir à l’utilisateur toutes les informations qui ont été utilisées
pour lui proposer la publication ou le contenu en question. Il devrait
aussi lui permettre de demander les informations ou données utilisées
par la plateforme pour filtrer et promouvoir des contenus en fonction
du profil de données qu’elle possède de l’utilisateur et en demander
la suppression
.
Bien entendu, cette fonctionnalité ne devrait pas se trouver dans un
coin éloigné et caché dans les options des paramètres de confidentialité,
mais devrait figurer de manière accessible, idéalement sous la forme
d’un bouton dans toutes les publications, afin de pouvoir être vérifiée aisément
par tous les utilisateurs.
86. Par ailleurs, une telle fonctionnalité contribuerait à une
mise en œuvre effective du droit de s’opposer au traitement. Les
utilisateurs ont le droit de limiter le traitement de leurs données
dans le temps; ils devraient avoir aussi le droit, en principe,
de limiter le type d’informations les concernant qui sont traitées.
Cela correspond aussi à l’idée des «avis stratifiés» qui permettent
aux utilisateurs de déterminer le niveau de détails qu’ils préfèrent
voir traiter. Ainsi l’utilisateur pourrait limiter le traitement
non seulement au moyen de coordonnées temporelles mais aussi en
excluant différentes facettes de son activité ou de sa personnalité.
5.2.3. Restituer aux usagers le control total
de leurs données
87. Comme évoqué précédemment,
l’accès à un contenu ou à un service en ligne est (quasi) systématiquement
soumis à un «consentement», qui diffère toutefois de celui décrit
à l’article 5.2 de la Convention 108 modernisée, selon lequel «le
traitement de données ne peut être effectué que sur la base du consentement
libre, spécifique, éclairé et non-équivoque de la personne concernée».
Dans la majorité des cas, une simple coche dans une case, accompagnée
d’un lien renvoyant à une politique de confidentialité volumineuse
et rédigée en termes légalistes, permet au responsable du traitement
des données de divulguer, voire même de transférer, les données
des utilisateurs à de tierces parties. Il devrait être mis fin à
cette pratique. La personne concernée doit garder le contrôle de
ses données. Le modèle économique qui s’appuie sur ce «consentement»
implicite et tire la plus grande partie de ses revenus de la vente
de «publicités ciblées» fondées sur ces données, devrait faire l’objet
d’un débat public ouvert et inclusif.
88. Je voudrais souligner que la question du respect de la vie
privée est considérée comme cruciale par la communauté du World
Wide Web elle-même, ou tout au moins par une partie d’entre-elle.
Pour Sir Tim Berners-Lee, ouverture des données et meilleur respect
de la vie privée en ligne ne sont pas antinomiques. Dans une note
intitulée «
One
Small Step for the Web…» (Un petit pas pour le Web), publiée le 28 septembre 2018,
il a annoncé le lancement d’un projet open source baptisé
Solid, qui est censé révolutionner
le modèle actuel où les utilisateurs doivent remettre leurs données
personnelles à des opérateurs internet en échange des services fournis.
89. Dans cette tribune, Tim Berners-Lee dénonce la manière dont
le web a évolué: «il est devenu un moteur d’iniquité et de division,
influencé par des forces puissantes qui l’utilisent pour leurs propres
objectifs». Il ajoute que «Solid est notre manière de faire évoluer
le Web afin de rétablir l’équilibre – en donnant à chacun d’entre nous
le contrôle total sur les données, personnelles ou non, d’une manière
révolutionnaire» et explique que cette nouvelle plateforme «donne
à chaque utilisateur le choix de l’endroit où les données sont stockées,
des personnes et des groupes spécifiques qui peuvent accéder aux
éléments sélectionnés, et des applications que vous utilisez. Elle
vous permet, à vous, à votre famille et à vos collègues, d’établir
des liens et de partager des données avec n’importe qui. Elle permet
aux personnes de consulter simultanément les mêmes données depuis
des applications différentes».
90. En d’autres termes, Solid vise
à permettre aux utilisateurs de créer, gérer et sécuriser leur propre
espace de stockage de données personnelles en ligne («POD»), c’est-à-dire
une sorte de «coffre-fort numérique» qui peut être situé à la maison,
au travail ou chez un fournisseur POD sélectionné, et dans lequel
les utilisateurs peuvent stocker des informations comme des photos,
des contacts, des calendriers, des données médicales et autres.
Ils peuvent ensuite donner l’autorisation à d’autres personnes,
entités et applications de lire ou écrire certaines parties de leur
POD Solid.
91. Il convient de noter que le concept de
Solid n’est
pas entièrement nouveau; en France, un nouveau service appelé
Cozy Cloud est disponible depuis début de l’année 2018. Ce service
affiche la même ambition: «permettre à chacun de bénéficier de plus
d’usages de ses données personnelles en se les réappropriant».
92. Une difficulté tient cependant au fait que les services en
ligne les plus courants – comme Gmail ou Facebook – ne semblent
pas avoir inscrit à leur ordre du jour le développement à court
terme de leurs outils afin de garantir leur compatibilité avec Solid. Les instances de régulation
devraient peut-être intervenir de manière à imposer de tels développements.
La BBC a annoncé la sortie d’une nouvelle application destinée à protéger
les enfants sur internet, qui stocke l’ensemble des données privées
sur l’appareil lui-même, en local; c’est un signe encourageant d’une
nouvelle tendance dans cette direction, qui confirme que les avantages
des services personnalisés ne sont pas incompatibles avec le respect
de la vie privée.
6. Conclusions
93. L’Assemblée et le Comité des
Ministres ont adressé plusieurs recommandations aux autorités nationales
et aux médias sociaux, qui ciblent les questions de la liberté d’expression,
de la liberté d’information et du respect de la vie privée (en lien
également avec la collecte et la protection des données). Cependant, cela
reste un chantier ouvert. Nous nous trouvons dans un environnement
en constante et rapide évolution; dès lors, dans ce domaine, nous
avons besoin de repenser, d’affiner et de compléter notre action
de façon continue.
94. Pour que nos efforts visant à garantir une protection efficace
des droits fondamentaux aboutissent, il est, à mon sens, déterminant
de poursuivre sur la voie de la coopération entre les différents
acteurs et en particulier, dans ce cas, entre les pouvoirs publics
et les médias sociaux. À cet égard, je salue le fait que des partenaires
comme Google et Facebook aient accepté de dialoguer et de contribuer
à cette réflexion.
95. De manière provocatrice, ce rapport s’interroge sur le modèle
économique qui domine aujourd’hui l’économie d’internet, un modèle
économique centré sur la collecte, l’analyse et l’utilisation des
données personnelles. Souhaitons-nous accepter que celui-ci soit
le prix à payer pour les services que les entreprises du Net nous
offrent? Ou bien avons-nous une alternative valable à proposer?
96. Dans la mesure où les plateformes de médias sociaux sont devenues
d’importants diffuseurs d’informations et autres contenus journalistiques,
cette diffusion ne peut être exclusivement motivée par le profit.
Les entreprises de médias sociaux doivent assumer certaines responsabilités
d’intérêt public s’agissant du rôle éditorial dont certaines plateformes
s’acquittent déjà, mais pas de la manière la plus transparente,
et en ce qui concerne l’exploitation massive des données à caractère
personnel.
97. Par ailleurs, la question de l’utilisation de nos données
personnelles n’est pas seulement liée à la protection de notre droit
à la vie privée; il s’agit aussi de la possibilité de nous contrôler
de manière subreptice, ainsi que de la possibilité de biaiser le
fonctionnement de la démocratie en la vidant de son sens.
98. Ce rapport ne prétend apporter ni de remède miracle ni de
solution définitive. Mon effort, avec l’aide des experts qui nous
ont accompagnés, a été de réfléchir sur comment nous pouvons, ensemble,
remettre les personnes au centre du débat sur le rôle et les responsabilités
des médias sociaux. Tel es le raisonnement qui sous-tend les propositions
faites en vue de prendre des mesures pratiques.