Le jour même où les législateurs européens ont intensifié leurs appels à une surveillance plus stricte des plateformes comme Meta et X, la Commission européenne (CE) a nié les accusations de censure formulées par le PDG de Meta, Mark Zuckerberg. Malgré ce démenti, les critiques soulignent que la loi sur les services numériques (DSA) de l’UE et les demandes passées de suppression de contenu révèlent un modèle de censure ancré dans son approche de la régulation des plateformes numériques.

Les propos de Zuckerberg, qui accuse l’Europe d’institutionnaliser la censure à travers son cadre réglementaire, ont suscité une réfutation ferme de la part de la Commission européenne. « Nous réfutons absolument toute allégation de censure », a déclaré un porte-parole de la Commission . Selon eux, la DSA n’oblige pas les plateformes à supprimer les contenus légaux mais se concentre sur les contenus illégaux ou jugés nuisibles, comme ceux qui ont un impact sur les enfants ou les processus démocratiques.
Cette défense doit toutefois être accueillie avec scepticisme. La loi DSA, adoptée en tant que texte de loi historique, a été critiquée pour son potentiel à étouffer la liberté d’expression sous couvert de garantir la sécurité. Zuckerberg s’est dit préoccupé par l’environnement numérique de plus en plus restrictif de l’Europe, déclarant : « L’Europe dispose d’un nombre toujours croissant de lois institutionnalisant la censure et rendant difficile la construction de toute innovation dans ce pays. »
Zuckerberg n’a pas tort. Le moment de l’affrontement entre Meta et la Commission européenne coïncide avec la décision de Meta de revoir ses politiques de modération de contenu aux États-Unis. Zuckerberg a annoncé que l’entreprise allait abandonner ses programmes de vérification des faits basés aux États-Unis sur des plateformes comme Facebook, Instagram et Threads, pour les remplacer par un système de « notes communautaires » calqué sur l’approche utilisée par X. Ce système permet aux utilisateurs d’ajouter des notes visibles publiquement aux publications qu’ils considèrent comme trompeuses, à condition que ces notes soient jugées utiles par un groupe diversifié de contributeurs.
Interrogée sur l’utilisation potentielle de systèmes similaires en Europe, la Commission a noté que de telles mesures nécessiteraient des évaluations des risques soumises à l’exécutif européen. Tout en mettant l’accent sur la flexibilité des approches de modération des contenus, la CE a souligné que tout système doit être efficace. « Quel que soit le modèle choisi par une plateforme, il doit être efficace, et c’est ce que nous examinons… Nous vérifions donc l’efficacité des mesures ou des politiques de modération des contenus adoptées et mises en œuvre par les plateformes ici dans l’UE », a déclaré un porte-parole de la CE.
Les critiques affirment que l’insistance de l’UE sur l’évaluation de « l’efficacité » ouvre la porte à une censure indirecte en incitant les plateformes à modérer excessivement les contenus pour éviter les sanctions. Si la Commission maintient qu’elle n’impose pas de pratiques spécifiques de modération des contenus, son cadre réglementaire exerce une pression considérable sur les plateformes pour qu’elles s’alignent sur les normes de l’UE.
Au milieu de ce conflit, les utilisateurs européens devraient continuer à souffrir de la « surveillance » du contenu menée par des « vérificateurs de faits » aux États-Unis, selon la Commission.
Voir l’article original cliquez ci-dessous :



Laisser un commentaire