Ce qui a commencé comme un « code de conduite volontaire » de l’UE concernant la « désinformation » – affectant les entreprises technologiques et de médias sociaux – est désormais sur le point de se transformer en un code de conduite obligatoire pour les plus influentes et les plus utilisées d’entre elles.

La nouvelle a été révélée par le régulateur irlandais des médias, et plus précisément par un responsable de ses services numériques, Paul Gordon, qui s’est adressé aux journalistes à Bruxelles. La Commission européenne n’a pas encore confirmé que janvier serait la date à laquelle le code actuel serait « formalisé » de cette manière.
La législation qui permettrait la « transition » est le controversé Digital Services Act (DSA) , que les critiques appellent souvent la « loi de l’UE sur la censure en ligne », dont l’application a commencé en février de cette année.
Le code « volontaire » est actuellement signé par 44 entreprises technologiques et, s’il devient obligatoire en janvier 2025, il s’appliquera à celles que l’UE définit comme de très grandes plateformes en ligne (VLOP) (avec au moins 45 millions d’utilisateurs actifs mensuels dans le bloc des 27 nations).
Actuellement, le nombre de ces plateformes est estimé à 25.
Dans sa forme actuelle, les dispositions de la DSA obligent les plateformes en ligne à effectuer des évaluations des risques liés à la « désinformation » et à révéler les mesures qu’elles prennent pour atténuer les risques révélés par ces évaluations.
Mais lorsque le code passera de « volontaire » à obligatoire, ces obligations comprendront également d’autres exigences : démonétiser la diffusion de la « désinformation » ; les plateformes, les groupes de la société civile et les vérificateurs de faits « coopèrent efficacement » pendant les élections, une fois de plus pour lutter contre la « désinformation » – et « donner du pouvoir » aux vérificateurs de faits.
Il s’agit non seulement de diffuser le « fact-checking » dans les pays membres de l’UE, mais aussi de faire financer ces groupes par des VLOP. Et ce, en dépit du fait que nombre des « fact-checkers » les plus éminents ont été régulièrement accusés de favoriser la censure au lieu de vérifier l’exactitude des contenus de manière impartiale.
Le code a été introduit pour la première fois (sous sa forme « volontaire ») en 2022, avec Google, Meta et TikTok parmi les principaux signataires – tandis que ces règles proviennent d’un code de bonnes pratiques « renforcé » de l’UE sur la désinformation basé sur les orientations de la Commission publiées en mai 2021.
« Il appartient aux signataires de décider des engagements qu’ils souscrivent et il leur appartient de garantir l’efficacité de la mise en œuvre de leurs engagements », avait déclaré l’UE à l’époque – cela aurait été l’élément « volontaire », tandis que la Commission avait déclaré à l’époque qu’elle n’avait pas « approuvé » le code.
Il semble que la Commission européenne soit désormais sur le point d’« approuver » le code, et même plus : des préparatifs sont en cours pour le rendre obligatoire.
Voir l’article original cliquez ci-dessous :


