1. Introduction
1. Avec l’émergence de sites et
d’applications web qui mettent en ligne des contenus générés par
de nombreux utilisateurs (blogs, plates-formes de médias sociaux
tels que Facebook et Twitter), la nécessité de préserver l’équilibre
entre le droit à la liberté d’expression et la protection d’autres
droits est revenue au premier plan, notamment à cause du caractère
global et instantané des publications sur l’internet et aux dommages graves
et irréversibles que des contenus illicites peuvent engendrer. Dans
ce contexte, deux questions se présentent comme essentielles: 1)
Qui devrait effectuer la qualification d’un contenu comme licite
ou illicite? et 2) Quelle est la portée de la responsabilité des
intermédiaires internet
(ci-après, «les intermédiaires»)
pour les contenus publiés en ligne?
2. Ces questions ne sont pas nouvelles. En 2011, les Nations
Unies avaient déjà appelé à un certain degré de responsabilité des
intermédiaires quant aux contenus diffusés
. En 2015,
l’UNESCO a présenté une publication sur le rôle des intermédiaires
internet. L'OSCE et l'OCDE (
Privacy Framework
2013, article 14) ont adopté des positions similaires
sur la responsabilité des intermédiaires.
4. Le 28 septembre 2017, la Commission européenne a adopté une
communication fournissant des orientations aux plateformes concernant
les procédures de notification et action visant à lutter contre
les contenus illicites en ligne. L'importance du combat contre les
discours de haine illégaux en ligne et la nécessité de poursuivre
sur la voie de la mise en œuvre du code de conduite sont largement
mises en évidence dans ce document d'orientation.
5. Le 9 janvier 2018, plusieurs commissaires européens se sont
réunis avec des représentants des plateformes en ligne afin de discuter
des progrès réalisés dans la lutte contre la propagation de contenus illicites
en ligne, notamment la propagande terroriste et les discours haineux
illégaux à caractère raciste et xénophobe en ligne, ainsi que des
infractions aux droits de propriété intellectuelle (voir
déclaration
commune). Le 1er mars 2018, la Commission
de l’Union européenne a adopté la
Recommandation
(UE) 2018/334 sur les mesures destinées à lutter, de manière efficace,
contre les contenus illicites en ligne.
6. Quant au Conseil de l’Europe, les dernières initiatives du
Comité des Ministres vont dans le même sens, notamment dans la
Recommandation
CM/Rec(2018)2 sur les rôles et les responsabilités des intermédiaires internet;
plus récemment, l’Assemblée parlementaire a adopté la
Résolution 2281 (2019) «Médias sociaux: créateurs de liens sociaux ou menaces
pour les droits humains?», où elle invite les intermédiaires à «prendre activement
part non seulement à l’identification des contenus inexacts ou faux
qui circulent par leur biais, mais aussi d’avertir leurs utilisateurs
de tels contenus, même lorsqu’ils ne sauraient être qualifiés d’illégaux
ou de préjudiciables et qu’ils ne sont pas retirés».
7. Parallèlement, nous constatons d'importantes évolutions dans
la jurisprudence de la Cour européenne des droits de l'homme. Ainsi,
l'affaire Delfi AS c. Estonie autorise
en principe la responsabilité des plateformes pour du contenu tiers
(Cour européenne des droits de l'homme, Grande Chambre, 16 juin
2015, Delfi AS c. Estonie,
requête no 64569/09). Les législations
nationales témoignent de cette approche de plus en plus restrictive
et réglementaire adoptée à l’égard des intermédiaires en général,
et de la responsabilité du contenu en particulier.
8. Cela étant, certains éléments de la réglementation des contenus
sont flous. Le «droit à l’oubli», codifié dans l’article 17 du Règlement
général sur la protection des données (RGPD), en est un exemple.
D’autres raisons invoquées pour justifier des demandes de suppression
ou de déréférencement peuvent aussi être sources d’incertitude et
donner lieu à de difficiles questions de jugement; c’est notamment
le cas du discours de haine et du contenu diffamatoire. Par ailleurs,
des critères comme la «nécessité» et la «proportionnalité» peuvent
être appréciés différemment par les différents acteurs concernés.
9. Dans ce contexte, les intermédiaires utilisent divers moyens
d’autorégulation: ils recrutent des modérateurs pour dépister d’éventuels
contenus illicites et établissent leurs propres normes communautaires internes.
Toutefois, même s’ils sont de bonne foi, les intermédiaires peuvent
avoir des difficultés à déterminer si le contenu incriminé est illicite
ou non. En conséquence, par prudence, sur plainte des utilisateurs
ou d’office, ils peuvent choisir d’effacer des contenus «dérangeants»
ou «provocateurs». Dans ces cas, le risque de léser le droit à la
liberté d’expression des usagers est bien réel.
10. Quelques questions cruciales demeurent sur lesquelles il n'y
a pas encore d'accord général: Quels sortes de règlements et de
procédures devraient être élaborés pour protéger les droits fondamentaux
dans l’espace internet et comment garder l’équilibre fragile entre
le droit à la liberté d’expression et la protection d’autres droits?
Dans quelle mesure la responsabilité pour les contenus publiés en
ligne incombe aux intermédiaires et qui aurait l’autorité et les
compétences nécessaires pour qualifier les divers contenus sur le web
comme licites ou illicites?
11. Pour remédier au problème des contenus illicites en ligne,
les géants d’internet proposent des normes communautaires qui peuvent
différer d’un opérateur à l’autre et qui ne sont pas nécessairement
en parfaite harmonie avec les lois nationales ou avec le cadre juridique
européen. Le système de hotline INHOPE
(
International
Association of Internet Hotlines – Association internationale
des lignes directes internet) propose des solutions diverses selon
les pays. La régulation au niveau étatique des questions liées aux
contenus illicites rencontre pour l’instant des difficultés d’ordre
pratique (la manière d’appliquer la loi) et d’harmonisation juridique
(les approches juridiques diffèrent entre l’Europe et les Etats-Unis,
mais également entre les États membres du Conseil de l’Europe).
12. Dans un contexte qui manque de cohérence, de clarté et d’harmonisation,
les utilisateurs peuvent se sentir désorientés en se retrouvant
entre différentes plateformes et systèmes juridiques nationaux.
Il est nécessaire de trouver une manière pour: 1) faciliter le signalement
par les utilisateurs des contenus illicites publiés sur internet;
2) aider les intermédiaires à qualifier un contenu douteux de licite
ou illicite, afin d’éviter la publication de contenus inacceptables
sous l’aspect juridique et la suppression abusive «par excès de prudence»;
3) favoriser, en cas de litige, une solution rapide à l’amiable
entre l‘intermédiaire et l’utilisateur, en prévenant de longues
procédures judiciaires.
13. L’idée de la création d’une institution d’Ombudsman de l’internet
(dans ce document appelé aussi «Ombudsman») me paraît pouvoir répondre
à ces exigences.
14. Ainsi, dans ce rapport, après un tour d’horizon des approches
que diverses parties prenantes proposent pour remédier au problème
des contenus illicites en ligne, j’analyse les avantages que l’institution d’Ombudsman
de l’internet aurait, ainsi que les éventuels défis d’ordre financier,
juridique, institutionnel et pratique que la création d’une telle
institution poserait. J’aborde aussi des questions sensibles comme
la procédure de désignation de l’Ombudsman et du personnel de l’institution,
et le mécanisme destiné à garantir leur indépendance et leur compétence.
Je m’intéresse aux rapports entre l’institution d’Ombudsman de l’internet
et le Législatif, l’Exécutif et le système judiciaire.
2. Contenus illicites en ligne: quelles
solutions pour y remédier?
2.1. Systèmes
internes des intermédiaires internet
15. Afin de protéger les utilisateurs
en ligne et d'être dégagés de toute responsabilité, les sites de
médias sociaux élaborent leurs propres politiques et interfaces
en ligne pour signaler les violations et les abus. Avec la reconnaissance
du «droit à l’oubli» par la Cour de Justice de l’Union européenne,
la qualification de contenu en ligne est devenue un défi pour tout
intermédiaire internet: un défi pour les petites entreprises en
particulier car elles ne peuvent pas se permettre d’énormes départements
juridiques, et un défi également pour les grandes entreprises en
raison de l’énorme quantité de contenu en ligne.
16. Facebook engage une multitude de modérateurs (environ 4 500,
auxquels M. Zuckerberg promettait d’en ajouter 3 000, suite à la
vidéo postée sur Facebook Live montrant le suicide d’un homme, en
Thaïlande, après avoir tué sa fille de 11 mois) pour surveiller
les milliards de publications sur son réseau
. Ses modérateurs, débordés par le
volume de travail, n'ont souvent que 10 secondes pour prendre une
décision
. En conséquence, d'une part, il
est possible que des contenus illicites soient ignorés, mal interprétés
ou ne soient pas traités rapidement par des intermédiaires d’internet;
d'autre part, il est possible que la liberté d'expression soit compromise
par un blocage excessif et une suppression exagérée du contenu en
ligne.
17. La plupart des systèmes de suppression ou de qualification
de contenu internet sont mis en œuvre par des organismes publics
qui coopèrent avec les services répressifs ou par les services répressifs
eux-mêmes. Tout contenu susceptible d’être illicite peut être signalé:
1) à l'administrateur du site: des sites tels que Facebook, YouTube
et Twitter offrent aux utilisateurs un moyen simple de se plaindre
d'une page, d'un message ou d'une vidéo; 2) à la société d'hébergement:
si le site web lui-même est suspecté d'être illégal, un utilisateur
peut contacter la société qui héberge le site web ou le fournisseur
internet; 3) à l'organisme public concerné.
18. La plupart des activités de qualification et de suppression
de contenu en ligne sur les médias sociaux sont entreprises par
les sociétés exploitant ces sites. Voici quelques aspects concernant
Facebook, Twitter et YouTube.
2.1.1. Normes
communautaires de Facebook
19. Facebook a développé un ensemble
de normes communautaires qui aident les utilisateurs à comprendre
quel type de partage y est autorisé et quel type de contenu peut
leur être signalé et supprimé. Facebook supprime le contenu, désactive
les comptes et collabore avec les forces de l'ordre lorsqu'il estime qu'il
existe un risque réel de préjudice pour les personnes, une activité
criminelle ou une menace à la sécurité publique, par exemple les
automutilations, les intimidations et le harcèlement, la violence
et l’exploitation sexuelles, le discours de haine. Afin d'encourager
les comportements respectueux, Facebook supprime également d’autres
contenus (par exemple comportant de la nudité), conformément à ses
normes communautaires.
20. Les gouvernements peuvent également demander à Facebook de
supprimer les contenus enfreignant les lois locales, mais non les
normes communautaires. Si, après un examen juridique, Facebook constate
que le contenu est illégal en vertu de la législation locale, il
est alors possible de le rendre inaccessible uniquement pour les
utilisateurs ayant leur adresse IP dans le pays concerné.
2.1.2. Normes
communautaires de YouTube
21. YouTube dispose de son propre
centre de signalements chargé de supprimer les contenus illicites
et de bloquer les comptes non conformes aux règles de la communauté,
comme celles concernant la nudité ou le contenu sexuel, les contenus
préjudiciables, dangereux, haineux ou menaçants.
22. L’accès à un contenu qui peut ne pas convenir à un public
plus jeune peut également être limité en fonction de l’âge
. Un «outil de signalement» permet
aux utilisateurs de signaler des contenus illicites ou soumettre
un rapport plus détaillé à examiner.
23. YouTube propose un formulaire web juridique spécifique que
les utilisateurs ou l'autorité nationale compétente peuvent utiliser
pour demander la suppression d’un contenu qui enfreint la législation
locale.
2.1.3. Normes
communautaires de Twitter
24. Les règles de Twitter établissent
des limites pour le contenu disponible sur leurs services. Le contenu graphique
et les comportements abusifs sont interdits. Cela inclut les menaces
de violence (directes ou indirectes), le harcèlement, les comportements
haineux, la divulgation d’informations privées, l’usurpation d’identité,
ou encore l’automutilation. Tous les comptes se livrant aux activités
spécifiées peuvent être temporairement bloqués ou faire l’objet
d’une suspension permanente.
25. Si une personne représentant un gouvernement ou un organisme
chargé de l'application de la loi souhaite supprimer du contenu
potentiellement illicite de Twitter pour violation de la loi locale,
elle doit d'abord examiner les règles de Twitter et, le cas échéant,
soumettre une demande de révision du contenu. Si Twitter reçoit
une demande valide d'une entité autorisée, il peut bloquer de manière
immédiate l'accès à certains contenus ou à un certain compte dans
un pays donné
. Si le signalement adressé par un
utilisateur à un intermédiaire internet n'a pas abouti, l'utilisateur
peut le réadresser à un organisme public indépendant. Il appartient
à ce dernier de déterminer la nature du contenu et agir en conséquence
ou coopérer avec les forces de l'ordre.
2.2. Le
système de hotline INHOPE
26. INHOPE est un réseau actif,
collaboratif et influent composé de 51 lignes d'assistance dans
45 pays à travers le monde. Son objectif est d'éliminer en particulier
les abus sexuels sur enfants, mais aussi la haine / xénophobie en
ligne. Fondée en 1999 dans le cadre du programme
Safer Internet de la Commission européenne,
INHOPE comprend aujourd'hui une association et une fondation
(une organisation caritative constituée
en 2010 qui vise à parrainer et à soutenir financièrement les activités
de création de nouvelles lignes directes en dehors de l'Union européenne).
Outre les États membres de l'Union européenne, des pays tels que la
Fédération de Russie, le Canada, les États-Unis, la Turquie, le
Brésil, l'Australie, le Japon et l'Afrique du Sud sont membres d'INHOPE.
Néanmoins, tous les États membres du Conseil de l'Europe n’en font
pas partie.
27. INHOPE coordonne un réseau de lignes directes internet nationales
cofondées et soutenues par l'Union européenne. Son objectif principal
est de faciliter et de promouvoir le travail des lignes internet
directes pour lutter contre les contenus illicites, en particulier
le matériel sur les abus sexuels à l’encontre des enfants. INHOPE
a des partenaires tels que Google, Facebook, Twitter et Microsoft
et des partenaires répressifs tels qu'Europol, Interpol et Virtual
Global Taskforce afin de mettre en place une réponse efficace et
rapide aux contenus illicites sur internet
.
28. Les membres d’INHOPE exploitent une hotline publique ou indépendante
pour recevoir les plaintes concernant un contenu présumé illicite.
Ils évaluent ensuite le contenu conformément à leur législation nationale.
Si le contenu est illicite dans le pays d’accueil, la hotline nationale
prend les mesures nécessaires pour que le contenu soit retiré, en
consultation avec les partenaires responsables de l’application
de la loi.
2.3. La
différence entre les géants des médias sociaux et les sites web
simples
29. Les mesures que doit prendre
un utilisateur final lorsqu'il rencontre sur internet un contenu potentiellement
illicite diffèrent selon qu’il s’agisse des sites web simples ou
des géants du numérique. Facebook, Twitter, Tumblr ou YouTube disposent
de leur propre mécanisme de signalement «convivial» concernant le
contenu généré par des tiers. Ce n’est pas la société elle-même
qui génère le contenu. En tant qu'utilisateur final, un internaute
peut signaler à l'intermédiaire internet un contenu généré par une
autre partie. L’intermédiaire utilise son propre «code de conduite»
ou la loi locale pour évaluer la nature du contenu et pour décider
des mesures à prendre. Si la réponse de l'intermédiaire est négative
et si l'utilisateur estime toujours que le contenu est illicite,
il peut le signaler à l’autorité nationale compétente.
30. Dans le même temps, pour un site web modeste où l'administrateur
du site est lui-même le générateur de contenu, la procédure devient
plus compliquée. Comme c’est l’opérateur qui a généré le contenu potentiellement
illicite, il ne serait pas très efficace de lui signaler un contenu.
Il serait nécessaire de rechercher l'entreprise hébergeant le site
web ou son fournisseur internet afin de signaler le contenu. Étant
donné que la procédure n'est pas aussi rapide et fiable (manque
de grands services juridiques et de transparence), un utilisateur
devrait probablement signaler un contenu directement à l'autorité
nationale compétente. Il appartiendrait ensuite à cette dernière
d'évaluer la nature du contenu et de prendre les mesures qui s'imposent.
En général, l’action de l’autorité nationale dépend du fait que
le site web est hébergé à l’intérieur ou à l’extérieur du pays.
31. Les mécanismes de signalement varient d'un pays à l'autre,
de même que la définition du contenu illicite. Les sites web que
l'on peut trouver à l'aide de moteurs de recherche (e.g. Bing ou
Google) peuvent être potentiellement illicites et la seule chose
qu'un moteur de recherche puisse faire est de déréférencer le site
en question de sa liste de recherche, sans pouvoir pour autant le
supprimer du web en général.
32. A l’évidence, il est crucial de disposer d'un mécanisme d'évaluation
du contenu rapide, fiable et approprié concernant les petits sites
web simples, permettant la coopération entre États sur ce sujet.
2.4. Lois
nationales concernant la responsabilité juridique des intermédiaires
internet
2.4.1. Le
cadre juridique français
33. En décembre 2018, une nouvelle
loi a été votée visant explicitement la manipulation d’opinions notamment
en période électorale. Cette loi a pour finalité la lutte contre
la diffusion intentionnelle de fausses nouvelles afin de mieux protéger
la démocratie. Les plateformes, moteurs de recherche, réseaux sociaux doivent
faire la transparence sur les acteurs qui achètent la diffusion
de contenus sponsorisés, ainsi que sur les rémunérations afférentes.
À défaut, ils encourent une peine d’un an de prison et 75 000 euros
d’amende, pouvant être accompagnée d’une interdiction d’activité
pendant cinq ans.
34. En juillet 2019, l’Assemblée nationale a voté une proposition
de loi de Mme Laëtitia Avia visant à
lutter contre les contenus haineux sur internet. Le but est de simplifier
et accélérer la suppression des contenus publics illicites au regard
de la loi de 1881 sur la liberté de la presse, notamment «les contenus
publiés sur internet et comportant une incitation à la haine ou
une injure en raison de la race, de la religion, de l’ethnie, du sexe,
de l’orientation sexuelle ou du handicap». Le Conseil supérieur
de l’Audiovisuel devra établir les lignes directrices de bonnes
pratiques pour les intermédiaires du net et aura des pouvoirs en
matière de contrôles et de sanctions suite à des contenus haineux
en ligne. De plus, un parquet spécialisé sera créé. Saisi en référé ou
sur requête, le juge pourra ordonner le blocage ou le déréférencement
des contenus litigieux. Le texte prévoit également l’aggravation
des peines encourues (jusqu’à 250 000 € d’amende) en cas de non-respect des
obligations prévues par la loi et celles relatives à l’obligation,
pour ces opérateurs, de désigner un représentant légal en France.
Cette proposition de loi est en attente d’examen au Sénat.
35. Lors d’un entretien avec M. Zuckerberg à Paris en mai 2019,
le Président Macron a expliqué vouloir faire de la France le pays
qui invente la régulation du numérique pour réconcilier la technologie
et le bien commun; le patron de Facebook a affirmé avoir bon espoir
que les normes françaises puissent devenir un modèle à l’échelle
de l’Union européenne.
2.4.2. Le
cadre juridique allemand
36. Le dernier exemple de loi imposant
la responsabilité de l’intermédiaire vis-à-vis du contenu est la
loi d’application relative aux médias (Netzwerkdurchsetzungsgesetz ou
“NetzDG”), qui est entrée
en vigueur le 1er janvier 2018. Cette
loi crée un régime de responsabilité renforcée des intermédiaires,
qui est assorti de sanctions substantielles. Elle oblige les intermédiaires
à retirer les contenus qui sont «manifestement illicites» dans un
délai de 24 heures et les «contenus illicites» dans un délai de
sept jours. Cette loi renvoie
à des infractions définies dans le Code pénal allemand, notamment
l’interdiction du blasphème, du discours de haine et de la diffamation
en général. En cas de non-respect des obligations susmentionnées,
des sanctions administratives sévères pouvant aller jusqu’à 50 millions
d’euros s’appliquent aux médias sociaux, lesquels comptent plus
de 2 millions d’utilisateurs enregistrés en Allemagne.
37. Les intermédiaires peuvent déléguer l’examen de la légalité
du contenu à des institutions d’autorégulation. Ces institutions
examinent le contenu en question et rendent une décision que l’intermédiaire doit
appliquer. À ce jour, aucune institution de ce type n’a été approuvée.
Les fonctions d’autorégulation seraient subordonnées à une «approche
systémique». On observera que, d’une certaine façon, le cadre législatif
allemand déplace les pouvoirs/obligations de censurer du contenu
depuis le secteur public vers le secteur privé. Certains se sont
inquiétés du blocage excessif ou du «filtrage collatéral» résultant
de ce mécanisme, car c’est aux intermédiaires qu’il incombe de prendre
la décision, qui est – souvent – difficile
. Pendant les 100 premiers jours d’application
de la loi, 253 plaintes concernant du contenu ont été reçues. De plus,
le bureau placé sous l’autorité du ministère de la Justice a lancé
des enquêtes
ex officio, portant
le nombre total à 300 cas environ. Cinq réclamations ont été reçues
par des intermédiaires. La plupart d’entre elles concernent des
insultes, des cas de diffamation, des discours de haine et la négation
de l’holocauste.
2.5. La
question de l’application à l’internet des lois sur les médias
38. La loi sur les médias devrait-elle
s’appliquer à l’internet et aux intermédiaires? La question a été soulevée
à plusieurs reprises au fil des ans. Dans la plupart des pays, les
lois relatives aux médias contiennent des règles de responsabilité
strictes sur les contenus, qui prévoient des sanctions pénales et
civiles à l’encontre des éditeurs et des directeurs de journaux,
des radiodiffuseurs, etc.
. Ces lois imposent des sanctions
sur la base d’une responsabilité secondaire ou de la responsabilité
du fait d’autrui, cas de figure qui se trouve rarement dans les
autres domaines de la législation. Du fait de la dynamique de l’internet,
qui, sur le plan des fonctionnalités, a convergé dans l’élaboration
de contenus et leur diffusion avec les médias classiques, le principe
de responsabilité vis-à-vis du contenu tel qu’il existe dans la
législation sur les médias est de plus en plus souvent invoqué dans
les actions en justice et les débats d’orientation dans le monde
entier, d’où l’importance de donner des définitions claires de l’«éditeur»
et du «diffuseur» de contenus en ligne.
39. Les difficultés inhérentes à une transposition directe à l’internet
de la structure de responsabilité de la loi sur les médias résident
dans le fait que le contenu est généré par des tiers et non par
les intermédiaires eux-mêmes. Il semble qu’il serait préférable
de renoncer à appliquer la loi sur les médias directement, et de concevoir
un cadre juridique sui generis pour
les intermédiaires.
40. Les sociétés comme Google, Twitter, Facebook, etc., sont communément
vues comme de «simples tuyaux» qui acheminent du contenu. Elles
sont donc privilégiées au regard des règles d’exonération (de la responsabilité
du contenu) qui figurent dans la loi américaine de 1996 intitulée
Communications Decency Act, dans
la directive de l’Union européenne sur le commerce électronique
ainsi que dans un certain
nombre de lois nationales. On peut qualifier l’approche américaine
d’«immunité absolue» et l’approche européenne d’«immunité relative».
Cependant, la directive sur le commerce électronique est ambiguë
quant à la portée de l’immunité et elle n’emploie pas l’expression
«manifestement illicite». Une étude menée par la Direction générale
des politiques internes du Parlement européen en 2017 a déjà exprimé
le besoin de clarifier la portée de l’immunité.
3. Proposition de
créer une institution d’Ombudsman de l’internet
41. Au cours des trois dernières
années, l’idée de la création d’un Ombudsman chargé d’évaluer le caractère
licite ou illicite du contenu publié sur internet a fait son apparition.
Cette idée est née d'un rapport présenté à l'UNESCO par M. Dan Shefet
qui soulignait (dans le chapitre
sur les recommandations de politique générale) la nécessité d'une
procédure accélérée de résolution des litiges ou d'une procédure
de qualification du contenu afin de protéger la liberté d’expression
sur internet. Le rapport concluait que le pouvoir de fournir une
qualification du contenu publié en ligne pouvait être attribué à
une institution d'Ombudsman dans chaque pays.
42. Cette idée a été retenue par la sénatrice Mme Nathalie
Goulet qui a présenté au Sénat français une proposition de loi visant
à créer un Ombudsman de l’internet. Dans sa proposition
, l’Ombudsman serait une autorité
administrative indépendante, désignée parmi les membres de la Commission
nationale de l'informatique et des libertés (CNIL).
43. Une qualification du contenu ne serait traitée ni comme un
jugement, ni comme une sentence arbitrale; elle ne serait pas juridiquement
contraignante, mais fournirait des indications faisant autorité
en matière d'interprétation et de qualification du contenu en ligne.
Les parties seraient libres de choisir de suivre ou non l'évaluation
faite par l’Ombudsman.
44. L’avis de l’Ombudsman sur le contenu serait accessible aux
intermédiaires internet ainsi qu'aux utilisateurs finaux. Un intermédiaire
ayant un doute sur la nature d’un contenu ou un utilisateur ayant
rencontré un contenu qui lui semble illicite pourraient le renvoyer
à l'Ombudsman. L’Ombudsman devrait émettre son avis sur le contenu
présumé illicite sous sept jours ouvrables et, en l'absence de décision,
le contenu serait considéré comme licite.
45. Cette initiative législative n’a pas, à ce jour, eu une suite.
Cependant, la création, dans chaque État membre, d’une institution
d’Ombudsman de l’internet pourrait s’avérer utile, vu d’une part
le besoin pressant d’introduire une certaine régulation des contenus
publiés sur le web, et d’autre part, la multitude de normes communautaires
établies par les intermédiaires eux-mêmes.
46. L’institution d’Ombudsman fournirait aux intermédiaires, à
leur demande et après examen des contenus douteux, des recommandations
sur le traitement de ces contenus. L’institution pourrait être saisie
également par des utilisateurs qui se considèrent lésés dans leur
droit à la liberté d’expression ou qui ont signalé des contenus
présumés illicites mais n’ont pas eu de réponse de la part des intermédiaires
concernés.
47. Pour ce qui est de l’organisation pratique du fonctionnement
de l’institution de l’Ombudsman, certains États membres pourraient
faire le choix d’établir une nouvelle institution; d’autres pourraient
attribuer les fonctions de l’Ombudsman à des structures institutionnelles
existantes, telles que l’autorité chargée de la protection des données,
l’autorité de régulation des médias, ou encore l’Ombudsman chargé
des questions de la protection des droits de l’homme.
3.1. Avantages
possibles pour le public
48. Les préjudices causés par la
diffusion de contenus dommageables sur internet peuvent vite devenir irréversibles:
la communication en ligne est instantanée et globale, et tout contenu
préjudiciable peut être téléchargé par une nuée d’utilisateurs.
Les remèdes contre ce type de contenus doivent être effectifs et rapides.
Une justice tardive ne serait ni appropriée, ni efficace.
49. Dans ce contexte, l’institution de l’Ombudsman devrait permettre
de résoudre plus rapidement les cas plus délicats, sans laisser
le poids de la décision sur les intermédiaires, et d’accélérer le
retrait des contenus litigieux qui portent atteinte à une personne,
à un groupe de personnes ou au public en général; il s’agit de renforcer
leur protection.
50. Par ailleurs, l’institution de l’Ombudsman renforcerait en
même temps la protection du droit à la liberté d’expression des
usagers en réduisant le risque de la suppression abusive par les
intermédiaires des contenus qui leur semblent «dérangeants» ou «provocateurs».
3.2. Avantages
possibles pour les médias sociaux
51. Actuellement, les utilisateurs
signalent à la plateforme les contenus qu’ils jugent illicites ou
contraires aux normes internes applicables à la communauté, après
quoi le personnel de la plateforme (parfois des sous-traitants)
examine le contenu incriminé et décide de le retirer ou non. Les
utilisateurs font aussi des signalements à des ONG comme Internet Watch Foundation au Royaume-Uni, Internet-Beschwerdestelle en Allemagne,
à d’autres membres de l’INHOPE, à des agences gouvernementales comme Pharos en France, ou encore directement
aux services de répression. En outre, les intermédiaires font de
plus en plus souvent appel à l’intelligence artificielle pour intercepter
les éléments de contenu illicites.
52. Cela étant, il peut être très difficile de trancher définitivement
sur la légalité des contenus. Certaines affaires concernant le discours
de haine par exemple sont même portées devant le Comité des droits
de l’homme des Nations Unies et certaines sont portées devant la
Cour européenne des droits de l’homme. Lorsqu’ils traitent des demandes
de retrait ou de déréférencement, les intermédiaires ne possèdent
pas toujours les compétences juridiques nécessaires pour déterminer
si le contenu concerné est illicite ou non. L’entrée en vigueur
du RGPD augmente la pression sur les intermédiaires qui s’exposent
à des sanctions lourdes pouvant atteindre 4 % du chiffre d’affaires.
53. Les intermédiaires (en particulier les jeunes entreprises
qui ne peuvent pas se permettre de grands départements juridiques)
pourraient faire appel à l’Ombudsman pour prendre une décision éclairée
en cas de demande spécifique de retrait ou de blocage. Celui-ci
délivrerait un avis et en se conformant à cet avis, l’intermédiaire
serait assuré d’éviter d’éventuelles sanctions pénales.
3.3. Responsabilité
pénale, responsabilité civile et contrôle judiciaire des décisions
concernant les contenus
54. Voici quelques cas de figure
qui peuvent impliquer la responsabilité des principales parties-prenantes, tels
l’Ombudsman, l’intermédiaire et l’utilisateur: 1) l’intermédiaire
détecte et supprime un contenu qu’il considère illicite; 2) un utilisateur
signale un contenu qu’il estime illicite et l’intermédiaire le supprime,
ou au contraire ne le supprime pas; 3) un contenu présumé illicite
est supprimé à la recommandation de l’Ombudsman; 4) un contenu présumé
illicite est gardé en ligne à la recommandation de l’Ombudsman;
5) la victime d’un contenu préjudiciable non-supprimé dépose une
plainte; 6) l’auteur d’un contenu supprimé dépose une plainte.
55. Selon la législation de l’Union européenne, mais aussi selon
les normes du Conseil de l’Europe, les intermédiaires doivent réagir
promptement et prendre des mesures adéquates dès qu’ils observent
un contenu potentiellement illicite publié en ligne. Ils sont tenus
de retirer les informations en question ou rendre l’accès à celles-ci
impossible. Quand l’illicéité d’un contenu ne soulève pas de questions,
les intermédiaires le suppriment tout simplement, selon leurs normes
internes et la législation en vigueur. Mais dans des cas plus délicats,
on pourrait s’adresser à l’Ombudsman pour avoir son avis sur le
caractère licite ou illicite d’un contenu et donc sur l’obligation
de le supprimer ou non.
56. En agissant conformément à cet avis (non contraignant), les
intermédiaires – qui seraient alors de bonne foi – ne pourraient
plus être poursuivis au pénal.
57. Dans tous les cas de figure, l’usager lésé garderait le droit
d’ester en justice pour obtenir que la décision prise par l’intermédiaire
soit modifiée et la réparation du dommage subi effectuée. Ce droit
est reconnu (y compris au niveau constitutionnel) dans nos ordres
juridiques nationaux et il est également protégé par l’article 6
de la Convention européenne des droits de l’homme.
58. On peut donc se poser la question de savoir comment gérer
les cas (rares sans doute, mais toujours possibles) où l’avis de
l’Ombudsman serait renversé par un arrêt des juridictions nationales.
59. Il me semble évident qu’aucune responsabilité civile ne saurait
être adossée à l’institution de l’Ombudsman (sauf probablement les
cas de faute grave ou de dol). Quant à la responsabilité civile
des intermédiaires, une solution pratique pourrait être la mise
en place d’un système de couverture de risque, tel que la création
d’un fonds qui permettrait de payer des dommages-intérêts aux usagers
en question.
3.4. Difficultés
risquant d’apparaître lors de la création de l’institution de l’Ombudsman
3.4.1. La
question de la compétence juridictionnelle en matière d’internet
60. S’agissant de la portée territoriale
des réglementations en matière de contenu, il existe trois grandes écoles
de pensée. Selon la première, l’internet est un dédale de lois nationales
et régionales; le cyberespace est une simple extension de l’État
souverain et il est donc soumis aux lois et aux réglementations
de l’État. La Chine en particulier a adopté une politique législative
d’extension stricte de la souveraineté de l’État au cyberespace.
La deuxième école de pensée défend un internet uniquement régi par
ses propres lois, selon la théorie de l’universalisme. Les États-Unis
prônent cette approche. La troisième école, représentée par l’Union européenne,
promeut la portée extraterritoriale des réglementations en matière
de contenu. A la date de rédaction de ce rapport, nous attendons
la décision préjudicielle de la Cour de Justice de l’Union Européenne (CJUE)
relative à la demande introduite par le Conseil d’État français
dans l’affaire
Google c. CNIL , qui aura des répercussions majeures
sur la délimitation future de la compétence nationale et sur l’effet
extraterritorial.
61. Dans l’état actuel des choses, l’Ombudsman n’aurait pas pour
mission de résoudre des conflits juridictionnels. Toutefois, étant
donné l’approche de l’Union européenne, il semble logique que les
États membres du Conseil de l’Europe développent l’approche extraterritoriale.
3.4.2. Des
traditions juridiques et socio-culturelles diverses sur la liberté
d’expression
62. Il est vrai que chaque État
membre a sa propre législation et ses propres définitions concernant
les contenus préjudiciables ou illicites, et que chaque État peut
établir un équilibre légèrement différent entre la liberté d'expression
et les autres droits fondamentaux. Etant donné la diversité des
traditions socio-culturelles et juridiques, un contenu peut être
considéré comme illicite dans un pays et licite dans un autre. Si l’Ombudsman
qualifiait un contenu d'illicite, l’intermédiaire supprimerait probablement
ce contenu pouvant provenir d'un pays où ce contenu est considéré
licite. Dans certaines situations spécifiques, cela pourrait poser un
problème du point de vue de la liberté d'expression. Par exemple,
des contenus relatifs à l’homosexualité pourraient être qualifiés
d’illicites dans des pays tels que la Fédération de Russie, où la
loi fédérale visant à protéger les enfants des informations prônant
le déni des valeurs familiales traditionnelles dispose que les informations
contenant "de la propagande homosexuelle" peuvent être bloquées
et supprimées.
63. Tous les États membres du Conseil de l’Europe ont ratifié
la Convention européenne des droits de l'homme. La jurisprudence
de la Cour européenne des droits de l’homme en matière de droit
à la liberté d’expression constitue un facteur d’harmonisation qui
devrait permettre de surmonter les différences socio-culturelles
et juridiques entre les États membres. Un souci pourrait néanmoins
rester dans les États membres qui obligeraient les intermédiaires
à se conformer aux règles les plus strictes en matière de contenu
illicite.
3.4.3. Établir
une nouvelle institution ou élargir le mandat d’une institution
existante?
64. En fonction de différents contextes
nationaux, il est possible que certains États mettent en place une institution
d’Ombudsman autonome, créée ex nihilo,
tandis que d’autres assignent des fonctions «d’Ombudsman de l’internet»
à des institutions préexistantes. Par exemple, en France, on peut
imaginer qu’une telle fonction pourrait être attribuée à une haute
autorité indépendante, telle que le Conseil supérieur de l’audiovisuel
(ce qui est d’ailleurs prévu dans l’avis du Conseil d’État sur la
proposition de loi visant à lutter contre la haine sur Internet).
3.4.4. Nécessité
de fonctionner en réseau au niveau européen
65. Compte tenu du caractère transnational
de l’internet, il n’est pas assez efficace de supprimer un contenu préjudiciable
dans un pays s’il reste disponible dans d’autres. Cette situation
est pourtant celle qui risque de se produire en attendant une plus
forte harmonisation législative en la matière. Une concertation
voire une collaboration entre les institutions d’Ombudsman nationales,
fondée sur des principes communs de qualification de divers types
de contenus et des approches uniformes dans leur mise en œuvre,
pourrait réduire le risque d’un traitement diversifié du même contenu,
et en même temps favoriser des rapprochements législatifs.
66. Les États membres devraient se mettre d’accord sur la base
réglementaire et pratique qui permettrait à ces institutions de
fonctionner en réseau, en développant des actions coordonnées et
synchronisées, nonobstant les différences potentielles en ce qui
concerne les juridictions nationales et les mandats des institutions.
67. En perspective, pour plus d’efficacité et rapidité de traitement
des cas précis, il serait utile d’harmoniser les cadres juridiques
régissant ces structures. Par ailleurs, il faudrait également examiner
la nécessité d’un point de coordination ou même d’un Ombudsman au
niveau européen, à l’instar des commissaires sur la protection des
données qui existent à la fois au niveau national et européen. Un
Ombudsman au niveau européen, disposant d’une base de données complète
concernant les cadres juridiques nationaux et les statuts des Ombudsmans
nationaux, pourrait être d’une grande utilité surtout dans les situations
de divergence juridique entre les pays par rapport à des contenus
publiés en ligne.
3.4.5. Le
problème de la quantité (probablement) significative de réclamations
concernant la nature (potentiellement) illicite des contenus
68. On peut supposer que la possibilité
d’obtenir une qualification officielle du contenu sur internet se traduira
par un nombre important de demandes, tout du moins au début, et
que certaines d’entre elles seront peut-être abusives. L’article
12.5 du RGPD, qui traite des demandes abusives déposées par les
personnes concernées, pourrait servir de base pour définir des sanctions
analogues contre les intermédiaires qui solliciteraient de mauvaise
foi l’avis de l’Ombudsman.
69. Au fil du temps, il est probable que l’Ombudsman serait en
mesure d’établir un certain niveau de classification des demandes
et des types de contenu. Cette classification pourrait être facilitée
par la coopération entre les Ombudsmans de l’internet dans les différents
États membres (en conservant toutefois les spécificités du droit
national). On peut aussi envisager un pré-filtrage et une approche
centralisée dans l’esprit de l’Internet
Watch Foundation au Royaume-Uni, de Pharos en France et de l’Internet-Beschwerdestelle en Allemagne.
70. Cette façon de faire aurait nécessairement pour effet de limiter
les attributions de l’Ombudsman au contrôle des notifications présentées
par ces agences de pré-filtrage. Au début des activités de l’Ombudsman, dans
une phase de rodage, il serait sage de limiter les demandes de qualification
de contenus des intermédiaires aux notifications faites par ces
agences. Il serait de même opportun, pendant cette phase initiale,
de limiter l’étendue des qualifications aux contenus manifestement
illicites, domaine où le risque de blocage excessif est le plus
présent.
3.4.6. Problème
de financement de l’institution de l’Ombudsman
71. La question du financement
de l’institution de l’Ombudsman est essentielle. Sans un financement suffisant
et stable dans le temps, il ne sera pas possible d’en assurer son
bon fonctionnement, ni de recruter le personnel hautement qualifié
dont il aura besoin, sans oublier qu’à tout moment il est indispensable
de préserver son indépendance.
3.4.6.1. Financement
public
72. La mise en place d’un Ombudsman
au niveau de l’Union européenne devrait être financée par son budget,
mais on pourrait envisager, par exemple, l’application de charges
pour l’utilisation par les intermédiaires du service de l’Ombudsman,
pour assurer, au moins en partie, la couverture financière nécessaire
au fonctionnement de l’institution. En ce qui concerne les institutions
nationales, vu l’état des finances publiques dans plusieurs États
membres, on peut présumer que les ressources disponibles seraient relativement
modestes. Une option serait d’introduire une taxe spécifique pour
le secteur des intermédiaires affectée au fonctionnement de l’institution
de l’Ombudsman. Cependant, cette solution pourrait créer d’inutiles controverses
étant donné l’actuelle proposition de l’Union européenne en faveur
d’une taxe générale pour le secteur des intermédiaires qui serait
assise sur les recettes.
73. L’idéal serait évidemment la mise en place d’un Ombudsman
au niveau du Conseil de l’Europe. Mais elle me semble peu réaliste,
du moins actuellement; j’aimerais bien avoir tort à cet égard et
si la volonté politique était là, celle-ci serait sans doute l’option
la meilleure. On pourrait même envisager un accord partiel élargi,
ouvert aux pays non membres de l’organisation.
74. Il me semble difficile de discuter de la taxe spéciale tant
que la question sur la taxe générale ne sera pas clarifiée. L’idée
d’une charge pour l’utilisation du service est aussi à prendre en
considération, mais cela risque de décourager les demandes de la
part des usagers.
3.4.6.2. Financement
par la contribution volontaire des intermédiaires internet
75. Pour financer l’institution
de l’Ombudsman national, on pourrait envisager une participation
financière volontaire de la part des grands opérateurs internet,
mais leur motivation devra être stimulée.
76. Une motivation concrète pourrait être, par exemple, l’opportunité
d’éviter d’éventuelles sanctions pénales. Les géants du numérique
pourraient être sensibles à cet aspect, car ils aiment garder une
image de marque «propre», favorable pour le marketing et les ventes.
Dans cette perspective, même les intermédiaires disposant de grandes
équipes de modérateurs pourraient être intéressés à contribuer au
financement de l’institution de l’Ombudsman. Néanmoins, il est certain
que leur intérêt se porterait davantage à une institution commune
au plus grand nombre d’États, plutôt qu’au financement d’une pléiade
d’institutions nationales. Dans tous les cas, il faudrait s’assurer
de la stabilité de ces contributions volontaires et prendre garde
à ce que la dépendance financière ainsi créée ne se traduise pas
par une mainmise des intermédiaires internet sur l’institution de
l’Ombudsman, qui perdrait ainsi non seulement son indépendance mais
également sa crédibilité.
3.4.7. La
question de la responsabilité civile des intermédiaires internet
77. Comme indiqué plus haut, même
si les intermédiaires suivaient les recommandations de l’Ombudsman, ils
resteraient cependant responsables civilement, et si cette responsabilité
était engagée, ils devraient dédommager la partie lésée. A cet égard,
je me demande s’il ne serait pas possible d’envisager une solution semblable
à celle qui existe pour d’autres activités à risque, comme la circulation
automobile, en établissant une assurance responsabilité civile obligatoire
pour les intermédiaires internet, ou du moins prévoir qu’ils mettent
en place un fonds de garantie qui interviendrait pour résoudre si
possible à l’amiable les litiges. En accordant rapidement des dommages-intérêts
aux usagers lésés, on éviterait sans doute de coûteuses procédures
judiciaires.
78. Les grandes plateformes des médias sociaux disposent d’équipes
nombreuses de modérateurs dont la tâche est de faire en permanence
des vérifications en ligne pour éviter tout recours à la justice;
on peut donc raisonnablement présumer qu’il n’y aurait pas pléthore
d’usagers à dédommager. Par conséquent, un tel système pourrait
s’avérer un investissement intelligent permettant en même temps
de mieux protéger les personnes lésées, décharger les intermédiaires
de la gestion d’un contentieux fastidieux et peut-être réduire le
nombre de litiges portés devant les tribunaux nationaux.
79. En somme, en finançant le fonctionnement de l’Ombudsman et
en participant au système d’assurance, les opérateurs n’auraient
plus à intégrer dans leurs budgets des provisions dans la perspective
d’éventuels litiges sur les contenus diffusés en ligne.
80. Les intermédiaires devraient garder néanmoins leur part de
responsabilité quant aux contenus publiés en ligne. Ils devraient
être encouragés à coopérer dans le domaine de la recherche, afin
de développer des algorithmes capables d’assister de mieux en mieux
les spécialistes à dénicher les contenus illicites. À travers un
mécanisme de coopération intelligente, ils pourraient mutualiser
les (ou une partie des) ressources dédiées à la lutte contre les
contenus illicites et engager les mêmes équipes de spécialistes-modérateurs
en ligne, d’ingénieurs chercheurs, etc.
4. Aspects
juridiques et pratiques concernant le fonctionnement de l’institution
de l’Ombudsman
4.1. Assurer
l’indépendance politique, juridique et économique de l’Ombudsman
81. Chaque État membre serait libre
d’établir l’institution d’Ombudsman de l’internet conformément à
sa culture juridique. Les principes d’indépendance et d’impartialité
sont les deux aspects de l’institution sur lesquels on ne saurait
transiger. Les garanties à cet égard devraient être les mêmes que
celles concernant l’institution de l’ombudsman «classique».
4.2. Portée
des questions à traiter: terrorisme, discours de haine, harcèlement, cyberharcèlement
82. Les attributions de l’Ombudsman
de l’internet devraient couvrir les questions suivantes: discours
de haine/incitation (y compris la xénophobie, le racisme, l’antisémitisme,
le sexisme, etc.); contenu extrémiste/radicalisation; droit à l’oubli;
cyberharcèlement; harcèlement; diffamation. Les fausses informations
et la propagande ne devraient pas relever de sa compétence; ces
questions concernent les faits et non la qualification de légalité
du contenu.
83. La tâche de l’Ombudsman devrait être limitée à la qualification
des infractions en tant que délits inchoatifs (ne nécessitant pas
d’analyse de la cause). L’élément d’intention n’est pas décisif.
L’analyse de la légalité du contenu devrait être objectivée au maximum,
en tenant compte de la sémantique et du contexte.
84. Le contenu acheminé par le darknet ne devrait pas être traité,
car les intermédiaires n’ont pas ou presque pas de contrôle sur
ce type de contenu. Il en va de même pour les «blockchains», car
le caractère décentralisé de cette technique soulève de graves problèmes
de responsabilité secondaire.
4.3. Comment
l’Ombudsman se positionnerait-il vis-à-vis du RGPD?
85. Le RGPD n’est pas un instrument
de réglementation du contenu en tant que tel. Par exemple, il ne réglemente
pas le discours de haine et autres sujets analogues. Il se limite
(comme l’indique son titre) au traitement, à la collecte, au transfert,
etc., des données à caractère personnel. Il contient néanmoins certaines dispositions
de réglementation du contenu, accompagnées de sanctions pénales
et civiles substantielles, par exemple à l’article 82 relatif au
«Droit à réparation et responsabilité» et à l’article 83.6 qui concerne
les amendes administratives de 4 %.
86. Il est donc essentiel de déterminer aussi si le RGPD contient
ou non des garanties suffisantes en termes de filtrage collatéral,
dans la mesure où il peut se traduire par une réglementation du
contenu (par exemple, l’article 16 sur le «Droit de rectification»
et l’article 17 sur le «Droit à l’effacement» (également appelé
«Droit à l’oubli»)). Sur ce point particulier, le RGPD utilise des
notions qui ne sont pas toujours clairement définies: «ne sont plus
nécessaires» ou «motif légitime impérieux», «liberté d’expression».
87. Outre les qualifications relatives aux articles 16 et 17 mentionnées
ci-dessus, des difficultés d’application du RGPD peuvent survenir
en lien avec l’article 3.2 sur le champ d’application territorial,
qui dispose que l’intention de traitement de données relatives à
des personnes qui se trouvent sur le territoire de l’Union européenne
doit être prouvée, et avec l’article 5 (finalité, caractère adéquat
et exactitude), l’article 6 (licéité et nécessité du traitement),
l’article 7 (consentement), l’article 21 («motifs légitimes et impérieux
pour le traitement»), voire l’article 44 («franchissement d’une
frontière»).
88. L’Ombudsman de l’internet ne devrait pas avoir à traiter ces
questions. Il devrait seulement émettre des avis sur la qualification
du contenu et non sur les procédures qui entourent le RGPD (par
exemple, sur la question de savoir si le consentement est obtenu
de manière légale).
5. Conclusions
89. Nous devons accepter les nouvelles
technologies, pour le meilleur et pour le pire, et, dans le même temps,
protéger la liberté d’expression ainsi que d’autres valeurs que
l’utilisation abusive de l’internet met en péril.
90. Compte tenu de l’impact généralisé des contenus en ligne sur
les comportements hors ligne et de la fonction de contrôleur d’accès
des intermédiaires, nous n’avons d’autre choix que celui d’imposer
un certain degré de responsabilité aux intermédiaires relativement
aux contenus diffusés sur leur infrastructure.
91. Cependant, il ne semble pas aisé d’appliquer directement aux
intermédiaires les actuelles lois sur les médias, compte tenu de
la nature et du volume énorme des contenus générés par des tiers
de manière ininterrompue. Il faut donc élaborer une théorie de la
responsabilité sui generis.
92. Des efforts de réglementation du contenu plus ou moins coordonnés
sont actuellement déployés au niveau de l’État et au niveau régional.
Ces initiatives convergent vers une forme ou une autre de responsabilité des
plateformes, les différences concernant essentiellement l’application,
les recours et les sanctions.
93. Les sanctions pourraient porter gravement atteinte à la liberté
d’expression en incitant les intermédiaires à prendre des mesures
qui pourraient conduire à un blocage excessif, au vu en particulier
des difficultés qui se posent pour qualifier des contenus d’illicites.
Malheureusement, la législation relative au contenu comme celle
qui concerne le «discours de haine» et le «droit à l’oubli» est
vague et nécessite de trouver un équilibre difficile entre divers
concepts comme «liberté d’expression», «intérêt du public» et autres.
94. Le rôle de l’Ombudsman de l’internet serait précisément de
renforcer la sécurité juridique, d’éviter le blocage excessif et
de renforcer la mise en œuvre effective de la réglementation sur
les contenus publiés en ligne, tout en soulageant les tribunaux.
95. Pour que l’Ombudsman fonctionne de manière optimale, la transparence
et l’indépendance doivent être garanties. Cette exigence s’applique
à la fois aux avis de l’Ombudsman et aux décisions que prennent
les intermédiaires de se conformer ou non à ces avis. Cette transparence
permet le débat public et la sensibilisation de l’opinion. Elle
permet également d’apporter des informations aux organes de publicité
et donc de valider le modèle économique des intermédiaires dans
sa capacité à atteindre le résultat souhaité sans restreindre la
liberté d’expression.
96. Le projet de résolution reprend l’essentiel de ces propositions.
Le rapport est plus riche en suggestions, mais je n’ai pas souhaité
fixer un cadre qui pourrait paraître trop rigide, car il s’agit
d’un sujet à plusieurs égards inexploré, ou les solutions auront
besoin d’être testées et validées.