Les entreprises de médias sociaux doivent faire davantage pour combattre les contenus illicites et la désinformation

Approuvant une résolution sur la base d’un rapport de José Cepeda (Espagne, SOC), l’Assemblée a appelé à une meilleure vérification des faits et à la modération du contenu, en identifiant le contenu inexact ou faux, en avertissant les utilisateurs à ce sujet et en bloquant les appréciations « j’aime » ou « partagé » dans les cas les plus graves. Le contenu généré par les robots doit être exclu des « tendances » et des outils développés doivent donner aux communautés des informations en retour sur la précision et la qualité du contenu.

Pour leur part, les États devraient se conformer pleinement aux obligations internationales pertinentes en matière de liberté d'expression et établir des réglementations nationales exigeant que les fournisseurs de médias sociaux garantissent la diversité des points de vue et des opinions.
Ils devraient également encourager les « audits » d'algorithmes pour s'assurer qu'ils respectent les principes de protection des données et encouragent la diversité des points de vue.

Alors que les médias sociaux apportent une énorme contribution positive à la société, leur utilisation abusive « entraîne de multiples conséquences néfastes » pour les individus, les institutions et la société, a souligné l’Assemblée - citant les cas de cyberintimidation et de harcèlement criminel, de discours de haine, de comportement prédateur en ligne ou de harcèlement, comme désinformation et manipulation de l'opinion publique. Elle a également déclaré que « l'exploration de données et le profilage sont des phénomènes qui semblent avoir dépassé le contrôle démocratique ».