Un Norvégien a déposé plainte après que ChatGPT lui a faussement dit qu’il avait tué deux de ses fils et qu’il avait été emprisonné pendant 21 ans.

Arve Hjalmar Holmen a contacté l’Autorité norvégienne de protection des données et a exigé que le créateur du chatbot, OpenAI, soit condamné à une amende.
Il s’agit du dernier exemple en date de ce que l’on appelle les « hallucinations », où les systèmes d’intelligence artificielle (IA) inventent des informations et les présentent comme des faits.
M. Holmen dit que cette hallucination particulière lui est très préjudiciable.
« Certains pensent qu’il n’y a pas de fumée sans feu – le fait que quelqu’un puisse lire ce message et croire qu’il est vrai est ce qui m’effraie le plus », a-t-il déclaré.
OpenAI a été contacté pour un commentaire
M. Holmen a reçu de fausses informations après avoir utilisé ChatGPT pour rechercher : « Qui est Arve Hjalmar Holmen ? »
La réponse qu’il a reçue de ChatGPT comprenait : « Arve Hjalmar Holmen est un Norvégien qui a attiré l’attention en raison d’un événement tragique.
« Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, qui ont été tragiquement retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »
M. Holmen a bien trois fils et a déclaré que le chatbot avait à peu près correctement déterminé leur âge, suggérant qu’il disposait d’informations précises à son sujet.
Le groupe de défense des droits numériques Noyb, qui a déposé la plainte en son nom, affirme que la réponse que ChatGPT lui a donnée est diffamatoire et enfreint les règles européennes de protection des données concernant l’exactitude des données personnelles.
Noyb a déclaré dans sa plainte que M. Holmen « n’a jamais été accusé ni condamné pour aucun crime et est un citoyen consciencieux ».
ChatGPT comporte une clause de non-responsabilité indiquant : « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes. »
Noyb dit que c’est insuffisant.
« On ne peut pas simplement diffuser de fausses informations et ajouter à la fin un petit avertissement disant que tout ce que l’on a dit n’est peut-être pas vrai », a déclaré l’avocat de Noyb, Joakim Söderberg.
Les hallucinations sont l’un des principaux problèmes que les informaticiens tentent de résoudre en matière d’IA générative.
C’est à ce moment-là que les chatbots présentent de fausses informations comme des faits.
Plus tôt cette année, Apple a suspendu son outil de résumé d’actualités Apple Intelligence au Royaume-Uni après avoir halluciné de faux titres et les avoir présentés comme de vraies nouvelles.
L’IA Gemini de Google a également été victime d’hallucinations : l’année dernière, elle a suggéré de coller du fromage sur une pizza à l’aide de colle et a déclaré que les géologues recommandaient aux humains de manger une pierre par jour.
ChatGPT a changé son modèle depuis la recherche de M. Holmen en août 2024 et recherche désormais des articles d’actualité lorsqu’il recherche des informations pertinentes.
Noyb a déclaré à la BBC que M. Holmen avait effectué un certain nombre de recherches ce jour-là, notamment en saisissant le nom de son frère dans le chatbot, ce qui a produit « plusieurs histoires différentes qui étaient toutes incorrectes ».
Ils ont également reconnu que les recherches précédentes auraient pu influencer la réponse concernant ses enfants, mais ont déclaré que les grands modèles linguistiques sont une « boîte noire » et qu’OpenAI « ne répond pas aux demandes d’accès, ce qui rend impossible d’en savoir plus sur les données exactes présentes dans le système ».
Voir l’article original cliquez ci-dessous :
















































Laisser un commentaire