L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».
Bien que ne faisant pas officiellement partie de l’UE, le groupe est impliqué dans un certain nombre de « projets anti-désinformation » financés par le bloc et fait des recommandations politiques à ses institutions et à ses pays membres.
L’une de ces « recommandations en cours d’élaboration » semble désormais vouloir renforcer les capacités des chatbots en tant qu’outils de censure, tandis que la loi européenne sur la censure, le Digital Services Act (DSA), est mentionnée comme le cadre juridique qui permettrait cela.
Un rapport de DisinfoLab, « Conditions de (dés)service : comparaison des politiques de désinformation dans les chatbots d’IA génératrices de texte », positionne l’objectif de la recherche comme étant l’examen des « politiques de désinformation » utilisées dans 11 des principaux chatbots afin de déterminer si elles en font suffisamment pour éviter d’être « mal utilisées ou exploitées par des acteurs malveillants ».
L’une des conclusions est qu’à l’heure actuelle, les conditions de service s’appliquant aux chatbots sélectionnés par EU DisinfoLab ne prévoient pas explicitement d’appliquer la censure, et prédit que les moyens « actuellement inadéquats » utilisés par les chatbots pour « modérer la désinformation » ne feront qu’empirer – si, bien entendu, ils ne sont pas réglementés.
C’est là qu’intervient la DSA, dont le rapport affirme que les dispositions générales de la loi obligent les plateformes en ligne à supprimer « rapidement les contenus illégaux dès qu’elles ont connaissance de leur illégalité » – une responsabilité que les plateformes contourneraient désormais en évitant l’inclusion de la « vérification des faits ».
L’Europe n’est pas le seul pays à envisager la possibilité d’utiliser les chatbots comme fantassins dans la « guerre contre la désinformation ». L’Assemblée de l’État de New York cherche désormais à « responsabiliser les chatbots ».
Une proposition (projet de loi 025-A222) a été présentée qui réglementerait l’espace en rendant les entreprises derrière les chatbots responsables de ne pas fournir « d’informations exactes ».
Le projet de loi, présenté par un membre démocrate de l’Assemblée de l’État, vise également à ajouter des informations définies comme « matériellement trompeuses, incorrectes, contradictoires ou nuisibles » à la liste des éléments pour lesquels les entreprises ne seraient pas autorisées à décliner toute responsabilité.
Et ces catégories, déjà larges, sont rendues encore plus ouvertes à l’interprétation puisque le texte proposé stipule que les opérateurs de chatbots seraient considérés comme responsables si ces types d’informations entraînent une perte financière – mais aussi « d’autres préjudices démontrables ».
Voir l’article original cliquez ci-dessous :


En savoir plus sur THE BLACK SUN
Abonnez-vous pour recevoir les derniers articles par e-mail.

Laisser un commentaire