L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.

L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.
Les projets de codes de pratique ont été mis à la disposition des membres du Parlement jeudi et, si le processus est mené à bien comme prévu, les nouvelles règles seront appliquées à partir du 25 juillet.
Avant cela, le 24 juillet est la date limite pour que les entreprises réalisent et enregistrent les évaluations des risques que leurs plateformes peuvent présenter pour les mineurs. (Ceci s’applique à la plupart des services en ligne comptant plus de sept millions d’utilisateurs actifs mensuels en moyenne au Royaume-Uni).
Selon l’Ofcom, ces mesures s’appliquent aux applications et sites utilisés par les enfants, comme les réseaux sociaux, les jeux et les services de recherche. L’objectif est d’empêcher les mineurs d’accéder à des contenus « liés » au suicide, à l’automutilation, aux troubles alimentaires, à la pornographie, aux contenus misogynes, aux contenus violents et au cyberharcèlement.
Même si les mesures sont vastes dans leur objet et leur nature, un certain nombre de critiques qui favorisent une approche encore plus restrictive – parmi lesquels l’association caritative pour enfants NSPCC – souhaitent que l’Ofcom étende cette initiative, notamment dans le sens d’un affaiblissement du cryptage de bout en bout dans les applications de messagerie.
En l’état actuel des choses, les nouvelles règles font de la vérification de l’âge un outil visant à empêcher les mineurs d’accéder aux services qui génèrent ou partagent des contenus répertoriés par l’Ofcom, et ce grâce à la mise en œuvre d’une « assurance d’âge hautement efficace ». Cela concerne à la fois les services dont « la plupart » – mais aussi « une partie » – des contenus relèvent des catégories préjudiciables.
Si les plateformes qui incluent des recommandations algorithmiques sont considérées comme présentant un « risque moyen ou élevé » de contenu préjudiciable (tel que défini), elles doivent alors disposer de filtres qui masqueront ce contenu.
Les autorités britanniques exigent des plateformes qu’elles agissent rapidement pour supprimer tout ce qui s’avère nuisible une fois que cela a été « examiné et évalué ».
Les sanctions en cas de non-conformité peuvent atteindre 18 millions de livres sterling (24 dollars américains) ou 10 % du chiffre d’affaires mondial. Si ces violations persistent, les tribunaux pourraient bloquer ou limiter l’accès aux plateformes incriminées au Royaume-Uni.
La directrice de l’Ofcom, Melanie Dawes, a fait la promotion des nouvelles règles dans les médias en faisant référence à la série fictive Adolescence de Netflix , afin de justifier les règles restrictives.
« Je pense qu’en fin de compte, ce qui se passe ici, et pas seulement au Royaume-Uni, c’est simplement un changement dans la façon dont les gens perçoivent tout cela. Que ce soit le drame « Adolescence », qui a mis en lumière certains des problèmes de misogynie, de pornographie et de contenu violent sur les réseaux sociaux de nos enfants », a déclaré Dawes à l’émission Today de la BBC.
Voir l’article original cliquez ci-dessous :



