Les efforts visant à réglementer les chatbots IA s’intensifient alors que les décideurs politiques font pression pour une censure de contenu plus stricte.

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

2–3 minutes

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

Bien que ne faisant pas officiellement partie de l’UE, le groupe est impliqué dans un certain nombre de « projets anti-désinformation » financés par le bloc et fait des recommandations politiques à ses institutions et à ses pays membres.

L’une de ces « recommandations en cours d’élaboration » semble désormais vouloir renforcer les capacités des chatbots en tant qu’outils de censure, tandis que la loi européenne sur la censure, le Digital Services Act (DSA), est mentionnée comme le cadre juridique qui permettrait cela.

Un rapport de DisinfoLab, « Conditions de (dés)service : comparaison des politiques de désinformation dans les chatbots d’IA génératrices de texte », positionne l’objectif de la recherche comme étant l’examen des « politiques de désinformation » utilisées dans 11 des principaux chatbots afin de déterminer si elles en font suffisamment pour éviter d’être « mal utilisées ou exploitées par des acteurs malveillants ».

L’une des conclusions est qu’à l’heure actuelle, les conditions de service s’appliquant aux chatbots sélectionnés par EU DisinfoLab ne prévoient pas explicitement d’appliquer la censure, et prédit que les moyens « actuellement inadéquats » utilisés par les chatbots pour « modérer la désinformation » ne feront qu’empirer – si, bien entendu, ils ne sont pas réglementés.

C’est là qu’intervient la DSA, dont le rapport affirme que les dispositions générales de la loi obligent les plateformes en ligne à supprimer « rapidement les contenus illégaux dès qu’elles ont connaissance de leur illégalité » – une responsabilité que les plateformes contourneraient désormais en évitant l’inclusion de la « vérification des faits ».

L’Europe n’est pas le seul pays à envisager la possibilité d’utiliser les chatbots comme fantassins dans la « guerre contre la désinformation ». L’Assemblée de l’État de New York cherche désormais à « responsabiliser les chatbots ».

Une proposition (projet de loi 025-A222) a été présentée qui réglementerait l’espace en rendant les entreprises derrière les chatbots responsables de ne pas fournir « d’informations exactes ».

Le projet de loi, présenté par un membre démocrate de l’Assemblée de l’État, vise également à ajouter des informations définies comme « matériellement trompeuses, incorrectes, contradictoires ou nuisibles » à la liste des éléments pour lesquels les entreprises ne seraient pas autorisées à décliner toute responsabilité.

Et ces catégories, déjà larges, sont rendues encore plus ouvertes à l’interprétation puisque le texte proposé stipule que les opérateurs de chatbots seraient considérés comme responsables si ces types d’informations entraînent une perte financière – mais aussi « d’autres préjudices démontrables ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

L’IA maléfique : comment les chatbots IA renforcent l’image négative que les adolescents ont d’eux-mêmes

L’intelligence artificielle est un secteur en constante évolution qui maîtrise les plateformes de médias sociaux, les médias d’information et presque tous les aspects de la culture Internet.

3–4 minutes
Généré par IA

Cet article peut contenir des déclarations qui reflètent l’opinion de l’auteur

(Article de Reese Thompson republié depuis DailyIowan.com )

Il est communément admis que les chatbots et les programmes d’intelligence artificielle sont des technologies relativement nouvelles. Le  premier chatbot  a en fait été programmé en 1966 par Joseph Weizenbaum, informaticien au MIT. 

Bien que ces applications ne soient pas nouvelles, le débat sur la question de savoir si l’IA est sûre ou appropriée pour les adolescents et les jeunes adultes a été lancé récemment. 

Plus tôt cette année,  Megan Garcia  a intenté une action en justice contre la société Character .AI, affirmant qu’elle était responsable du suicide de son fils. Son fils, Sewell Setzer III, a passé des mois à correspondre avec Character.AI et a été en communication avec le robot quelques instants avant sa mort. 

Immédiatement après le dépôt de la plainte, Character.AI a publié une déclaration annonçant de nouvelles fonctionnalités de sécurité pour l’application. 

La société a mis en place de nouvelles détections pour les utilisateurs dont les conversations enfreignent les directives de l’application, a mis à jour sa clause de non-responsabilité pour rappeler aux utilisateurs qu’ils interagissent avec un bot et non avec un humain, et envoie des notifications lorsque quelqu’un est sur l’application depuis plus d’une heure. 

La prochaine génération d’enfants devra apprendre à  séparer émotionnellement  les interactions humaines des interactions avec l’intelligence artificielle.

L’un des principaux problèmes de ces applications est qu’elles ne sont pas au fait de l’argot utilisé par les enfants et les adolescents, ni des nuances de la façon dont ils conversent entre eux. Cela peut conduire les robots à encourager involontairement des propos négatifs parce que l’algorithme ne connaît pas la formulation. 

Si quelqu’un s’appuie sur des chatbots IA pour ses interactions sociales, cela peut nuire à ses compétences sociales car il devient émotionnellement dépendant de la technologie, ce qui peut menacer ses relations interpersonnelles. 

Les technologies d’IA favorisent une augmentation du  temps passé devant un écran, car les conversations que l’on peut avoir avec un chatbot semblent interminables. Le chatbot continuera à répondre et à demander à l’utilisateur de répondre jusqu’à ce que l’appareil soit éteint. 

Snapchat a présenté son nouveau chatbot My AI aux utilisateurs le 27 février 2023. Cette application est unique par rapport aux autres car les utilisateurs peuvent nommer et habiller leur chatbot et créer une bio pour lui, ce qui personnalise sa personnalité. 

Par exemple, vous pouvez écrire dans la biographie du chatbot qu’il est drôle et extraverti, et il vous répondra en conséquence. Ce type de  personnalisation  inquiète les parents qui craignent que leurs enfants développent une relation avec leur chatbot et lui donnent la priorité sur leurs relations dans la vie réelle.

La dernière innovation en matière de technologie de chatbot IA a été lancée plus tôt cette année. Il s’agit du « Friend », un collier que vous pouvez porter tous les jours et qui abrite un robot.

L’appareil communique par SMS ou par notifications push via le téléphone de l’utilisateur. Vous pouvez maintenir un bouton enfoncé pour poser des questions au robot, mais l’appareil écoute toujours et envoie parfois des notifications spontanées en fonction de ce qu’il entend. 

Les dangers posés par l’IA générative et les chatbots renvoient tous à l’idée d’anthropomorphisme, définie comme l’attribution de qualités ou de comportements humains à un objet non humain. 

Attribuer un nom à un chatbot, lui donner une personnalité, un sens du style et même une voix peut inciter l’utilisateur à créer un attachement malsain à la technologie en raison de son côté réaliste. 

Les parents doivent être conscients des risques que ces technologies d’IA représentent pour la santé mentale et le bien-être général de leurs enfants. 

Lire la suite sur : DailyIowan.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire