Redéfinir l’obscénité : les législateurs s’attaquent à davantage de contenu en ligne

Le projet de loi permettrait aux procureurs fédéraux de cibler les contenus consensuels pour adultes une fois protégés par une valeur artistique ou littéraire.

Deux législateurs républicains font avancer un projet de loi qui pourrait considérablement étendre la capacité du gouvernement fédéral à criminaliser certains contenus en ligne.

Le sénateur Mike Lee de l’Utah et la représentante Mary Miller de l’Illinois ont présenté l’Interstate Obscenity Definition Act (IODA), une loi qui vise à réviser la définition juridique de l’obscénité et à donner aux procureurs une large autorité pour cibler davantage de contenu en ligne.

Nous avons obtenu une copie de la facture pour vous ici .

Les partisans du projet de loi affirment qu’il est conçu pour protéger les familles et les enfants des contenus préjudiciables, mais les défenseurs des libertés civiles avertissent que son langage généralisé menace de criminaliser de larges pans de l’expression protégée par la Constitution.

L’IODA rejette des éléments clés du test Miller de longue date de la Cour suprême, qui sert de référence nationale pour identifier le contenu obscène depuis 1973. Dans ce cadre, les tribunaux évaluent si le matériel fait appel à un intérêt lubrique, dépeint une conduite sexuelle d’une manière « manifestement offensante » selon les normes communautaires et manque de « valeur littéraire, artistique, politique ou scientifique sérieuse ».

Le projet de loi de Lee et Miller remplace ce critère d’équilibre rigoureux par une définition fédérale stricte. Selon le texte proposé, un contenu est considéré comme obscène s’il « pris dans son ensemble, il fait appel à l’intérêt lascif pour la nudité, le sexe ou l’excrétion », s’il « décrit ou représente des actes sexuels réels ou simulés dans l’intention objective d’éveiller, d’exciter ou de satisfaire les désirs sexuels d’une personne », et s’il « pris dans son ensemble, est dépourvu de valeur littéraire, artistique, politique ou scientifique sérieuse ».

En faisant la promotion du projet de loi, Lee a déclaré : « L’obscénité n’est pas protégée par le Premier Amendement, mais des définitions juridiques floues et inapplicables ont permis à la pornographie extrême de saturer la société américaine et d’atteindre d’innombrables enfants. » Il a ajouté : « Notre projet de loi actualise la définition juridique de l’obscénité à l’ère d’Internet afin que ce contenu puisse être supprimé et ses revendeurs poursuivis. »

La représentante Miller a qualifié cette loi d’outil indispensable aux forces de l’ordre, affirmant qu’elle « fournit aux forces de l’ordre les outils nécessaires pour cibler et supprimer d’Internet les contenus obscènes, terriblement destructeurs et bien au-delà des limites de la liberté d’expression garantie par la Constitution ». Elle a ajouté que leur objectif était de « protéger les familles américaines et de veiller à ce que ces contenus dangereux soient tenus à l’écart de nos foyers et de nos écrans ».

Mais les juristes et les organisations de défense des libertés civiles tirent la sonnette d’alarme. La définition de l’obscénité contenue dans le projet de loi élimine des garanties juridiques essentielles, comme l’exigence que le contenu soit « manifestement offensant » au regard des normes sociales contemporaines. Cette omission, selon les critiques, ouvre la voie à des poursuites judiciaires même contre des représentations grand public ou artistiques.

Le projet de loi propose également de réviser la réglementation fédérale relative aux télécommunications en supprimant l’exigence selon laquelle les appels « obscènes » doivent être passés avec l’intention d’abuser, de menacer ou de harceler pour être considérés comme criminels. En vertu de la loi IODA, toute communication téléphonique « obscène », quel que soit le contexte ou le consentement, pourrait faire l’objet de poursuites. Cette modification pourrait s’appliquer aux services de sexe par téléphone, aux séances privées par webcam ou aux messages consensuels entre adultes.

Bien que le projet de loi soit conçu comme un effort visant à protéger les mineurs, son application à grande échelle affecterait tous les utilisateurs, quel que soit leur âge.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Une nouvelle étude révèle que l’algorithme de TikTok favorise le contenu pro-chinois

Les chercheurs découvrent la divergence marquée entre TikTok et les plateformes rivales dans la sélection de contenus politiquement sensibles.

2–3 minutes
Généré par IA

Une étude récente a intensifié la surveillance de TikTok, alléguant que l’application sélectionne des contenus d’une manière qui profite au Parti communiste chinois (PCC). L’étude suggère que la plateforme supprime les critiques à l’égard de la Chine tout en amplifiant les récits favorables, ce qui suscite des inquiétudes quant à son influence sur l’opinion publique.

Menée par l’université Rutgers et le Network Contagion Research Institute (NCRI), l’étude s’appuie sur des résultats antérieurs et devrait être publiée dans la revue Frontiers in Social Psychology. Elle se veut la première enquête évaluée par des pairs et basée sur des données montrant le biais algorithmique de TikTok en faveur du contenu pro-chinois.

Ces résultats surviennent à un moment critique pour l’application, qui risque une interdiction potentielle aux États-Unis à moins que sa société mère, ByteDance, ne rompe ses liens avec la Chine d’ici le 19 janvier 2025.

TikTok riposte

TikTok a dénoncé l’étude, qualifiant ses conclusions de dénuées de fondement et sa méthodologie de défectueuse. Dans un communiqué, un porte-parole de l’entreprise a déclaré : « Cette expérience défectueuse a clairement été conçue pour aboutir à une conclusion fausse et prédéterminée. Les recherches précédentes du NCRI ont été démystifiées par des analystes extérieurs, et ce dernier article est tout aussi erroné. »

Les chercheurs ont certes reconnu les limites de leurs méthodes, comme le recours à des comptes nouvellement créés pour simuler le comportement des utilisateurs, mais ils maintiennent leurs conclusions. Le directeur du NCRI, Joel Finkelstein, a souligné la nécessité d’une plus grande transparence, avertissant que les algorithmes des réseaux sociaux peuvent être exploités pour influencer les perceptions à l’échelle mondiale.

Preuve de biais algorithmique

L’étude a révélé des différences marquées dans la manière dont TikTok traite les sujets politiquement sensibles par rapport à des plateformes comme Instagram et YouTube. Par exemple, les recherches sur des termes tels que « Tiananmen » et « Tibet » ont généré beaucoup moins de résultats critiques sur TikTok. Les chercheurs ont noté que si les utilisateurs s’intéressaient davantage au contenu anti-chinois, l’algorithme de la plateforme recommandait de manière disproportionnée du contenu pro-PCC, un déséquilibre qui n’est pas observé sur d’autres plateformes.

La Cour suprême examinera cette semaine les arguments du Premier Amendement contre une interdiction de TikTok

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire