L’Union américaine pour les libertés civiles (ACLU), une organisation à but non lucratif de défense des droits civiques, a pris position contre les protocoles de tatouage numérique, d’authentification de contenu et de tamponnage de mèmes, car ils sont susceptibles de limiter les libertés de diverses manières.

Le principe de base de l’ACLU est que le problème de la « désinformation » telle que celle rendue possible par l’IA générative ne peut pas être résolu par la technologie – car la technologie censée le faire est inadéquate en termes de précision et d’efficacité pour déterminer si le contenu a été modifié.
Dans le même temps, ces méthodes soutenues par les grandes entreprises technologiques et envisagées par les législateurs américains pourraient entraîner un certain nombre de préjudices, prévient l’association. Parmi les conséquences négatives, on peut citer ce que l’ACLU appelle un « oligopole imposé techniquement aux médias journalistiques ».
C’est un point commun, souligne l’association, avec un certain nombre de méthodes d’authentification de contenu actuellement évoquées. Si elles devenaient la norme, les médias qui ne disposent pas de ces informations d’identification seraient alors considérés comme « non fiables ».
Une autre tâche que les systèmes d’authentification cherchent à accomplir est la mise en place d’autorités cryptographiques qui deviennent alors l’arbitre de ce qui est digne de confiance ou authentique, ceux qui veulent être considérés comme des autorités médiatiques authentiques étant contraints d’utiliser Adobe, Microsoft, Apple et leurs semblables.
Une autre question soulevée par l’ACLU est de savoir dans quelle mesure la vie privée des photographes et des éditeurs serait affectée par la prolifération de ces programmes et leur élévation au rang de fonctionnalités standard.
Cela devient un problème si la modification de contenu considéré comme « fiable » ne peut être effectuée que sur des appareils ou des applications contrôlés par des géants de la technologie. L’ACLU évoque un scénario dans lequel un contenu montrant des brutalités policières serait modifié sur une plateforme dont on sait qu’elle se conforme aux demandes des forces de l’ordre.
Un autre problème est celui du coût d’utilisation des outils et des dispositifs qui permettraient de qualifier un contenu de fiable. Les personnes à faibles revenus seraient moins susceptibles d’avoir accès à la fois au matériel et aux logiciels, y compris dans les scénarios où une vidéo présentant des abus commis par les autorités et non « authentifiée » est ignorée car considérée comme « non fiable ».
Et puis, il y a l’autre côté de la médaille : le contenu qui est réellement modifié d’une manière qui le rend non fiable et passe pour fiable, grâce aux failles des méthodes d’authentification.
Voir l’article original cliquez ci-dessous :




























