OpenAI doit sauvegarder toutes les conversations ChatGPT, même celles que vous supprimez.

Des messages privés autrefois considérés comme éphémères pourraient désormais vivre éternellement, grâce aux demandes du New York Times.

3–4 minutes

Une ordonnance d’un tribunal fédéral exigeant qu’OpenAI conserve toutes les conversations ChatGPT, y compris celles que les utilisateurs ont supprimées, devrait susciter de vives inquiétudes parmi les défenseurs de la vie privée et ajouter une pression à une bataille juridique croissante concernant l’utilisation de matériel protégé par le droit d’auteur dans les systèmes d’IA.

Le 13 mai, la juge fédérale Ona T. Wang a ordonné à OpenAI de « préserver et de séparer toutes les données de journal de sortie qui seraient autrement supprimées à l’avenir jusqu’à nouvel ordre du tribunal ». Bien que l’ordonnance ait été émise il y a plusieurs semaines, elle n’a été portée à l’attention du public que cette semaine, alors qu’OpenAI a commencé à prendre des mesures formelles pour la contester.

Cette décision fait suite à de multiples poursuites intentées par des organisations médiatiques, dont le New York Times, qui accusent OpenAI d’utiliser illégalement son contenu protégé par le droit d’auteur pour former et exploiter ChatGPT.

En réponse, OpenAI a soumis un dossier exhortant le juge de district américain Sidney H. Stein à annuler ce qu’il a décrit comme une « ordonnance radicale et sans précédent ».

L’entreprise a fait valoir que la directive l’oblige à ignorer les choix des utilisateurs concernant la suppression de leurs données, mettant ainsi en péril la vie privée de millions de personnes. OpenAI a également cité une déclaration du comité de rédaction du New York Times affirmant que les Américains « devraient pouvoir contrôler ce qu’il advient de leurs données personnelles ».

L’entreprise a souligné que ChatGPT est fréquemment utilisé pour des questions très personnelles telles que la planification financière, les conseils aux entreprises et les questions relationnelles sensibles. Enregistrer chaque message, y compris ceux que les utilisateurs souhaitent effacer, risquerait d’exposer des informations privées et serait contraire aux politiques de confidentialité d’OpenAI.

« Le New York Times et d’autres plaignants ont formulé une demande radicale et inutile dans leur action en justice infondée contre nous : conserver indéfiniment les données clients de ChatGPT et de l’API », a déclaré Brad Lightcap, directeur de l’exploitation d’OpenAI, dans un communiqué. « Cela est fondamentalement contraire aux engagements que nous avons pris envers nos utilisateurs en matière de confidentialité. Cela remet en cause des normes de confidentialité établies de longue date et affaiblit les protections de la vie privée. »

Le juge Wang a rejeté la requête d’OpenAI visant à lever l’ordonnance le 29 mai, assurant l’entreprise lors de la procédure que les données des utilisateurs ne seraient pas rendues publiques. Néanmoins, cette décision a suscité de nombreuses inquiétudes quant à la manière dont les informations des utilisateurs seront traitées à l’avenir.

Les médias qui portent plainte insistent sur l’importance de préserver l’intégralité des conversations des utilisateurs. Ils estiment que les données pourraient montrer que ChatGPT a été utilisé pour résumer des articles payants ou reproduire du matériel protégé par le droit d’auteur. OpenAI a répliqué, arguant qu’aucune preuve significative n’a été présentée pour étayer ces allégations et que les affirmations des plaignants sont spéculatives.

Dans ses documents judiciaires, OpenAI a souligné que les plaignants n’avaient pas démontré en quoi les données supprimées seraient plus pertinentes que celles que l’entreprise conserve déjà. L’entreprise a également averti que se conformer à la directive du tribunal imposerait des contraintes techniques et juridiques majeures, nécessitant peut-être une refonte fondamentale de son infrastructure et de ses politiques.

OpenAI a déclaré que cette exigence créerait un « fardeau substantiel » sur ses opérations et pourrait contraindre l’entreprise à agir contre ses propres engagements en matière de confidentialité.

Si le tribunal ne change pas de cap, les utilisateurs de ChatGPT devront peut-être supposer que chaque interaction est désormais enregistrée de manière permanente.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


«Elon Musk veut nous détruire», accuse le créateur de ChatGPT

Open AI a décidé de porter plainte contre le patron de X et Tesla, lui reprochant «une campagne acharnée» pour lui nuire après qu’il a connu le succès sans lui.

2–3 minutes

La star de l’intelligence artificielle OpenAI a déposé plainte à son tour contre le multimilliardaire Elon Musk, accusant son ancien cofondateur d’avoir mené une «campagne acharnée» pour nuire à l’organisation après qu’elle a connu le succès sans lui. La start-up qui a lancé ChatGPT fin 2022 souhaite obtenir une injonction pour mettre fin à «d’autres actions illégales et injustes» de M. Musk, ainsi qu’une indemnisation.

Dans les documents juridiques déposés mercredi devant un tribunal californien, OpenAI affirme que Musk est devenu hostile à l’égard de l’entreprise après l’avoir abandonnée, des années avant sa percée dans l’intelligence artificielle (IA) générative. «Musk ne pouvait pas tolérer d’assister au succès d’une société qu’il avait abandonnée et déclarée condamnée», a assené OpenAI.

Musk avait «abandonné» Open AI

Cette plainte est le dernier épisode en date d’une querelle acerbe entre la championne technologique et l’homme le plus riche du monde, qui a poursuivi OpenAI en justice l’année dernière, en l’accusant d’avoir trahi sa mission fondatrice. Dans sa contre-attaque, l’entreprise estime que Musk «a décidé de détruire OpenAI et de construire un concurrent direct qui serait plus avancé technologiquement – non pas pour le bien de l’humanité, mais pour Elon Musk».

Le patron de Tesla et SpaceX a fondé sa propre entreprise d’IA générative, xAI, en 2023, et a investi des dizaines de milliards de dollars pour concurrencer les autres grands acteurs du secteur.

OpenAI a été fondée en décembre 2015 en tant que laboratoire de recherche à but non lucratif ayant pour mission de veiller à ce que l’intelligence artificielle générale (AGI) – désignant une IA aussi intelligente que des humains – «profite à l’ensemble de l’humanité».

Elon Musk faisait partie des premiers bailleurs de fonds, aux côtés du patron actuel Sam Altman. Mais sa participation a été de courte durée, selon OpenAI. L’entreprise assure que Musk a quitté l’organisation après que ses dirigeants d’OpenAI ont refusé «de se plier à ses exigences sur le contrôle de l’entreprise ou, alternativement, son absorption dans Tesla».

OpenAI vaut aujourd’hui 300 milliards de dollars après son dernier tour de table de 40 milliards de dollars, la plus grosse levée de fonds jamais réalisée par une start-up non cotée. Mais OpenAI va devoir modifier ses statuts, pour se transformer en entreprise classique, tout en conservant l’organisation mère à but non lucratif.

OpenAI reproche à Elon Musk de lui nuire en présentant à tort ce changement de forme juridique comme une conversion totale, en multipliant les attaques dans la presse et sur son réseau social X où il compte plus de 200 millions d’abonnés et avec son «offre d’achat fictive pour les actifs d’OpenAI».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Un homme porte plainte après que ChatGPT a déclaré qu’il avait tué ses enfants

Un Norvégien a déposé plainte après que ChatGPT lui a faussement dit qu’il avait tué deux de ses fils et qu’il avait été emprisonné pendant 21 ans.

2–4 minutes

Arve Hjalmar Holmen a contacté l’Autorité norvégienne de protection des données et a exigé que le créateur du chatbot, OpenAI, soit condamné à une amende.

Il s’agit du dernier exemple en date de ce que l’on appelle les « hallucinations », où les systèmes d’intelligence artificielle (IA) inventent des informations et les présentent comme des faits.

M. Holmen dit que cette hallucination particulière lui est très préjudiciable.

« Certains pensent qu’il n’y a pas de fumée sans feu – le fait que quelqu’un puisse lire ce message et croire qu’il est vrai est ce qui m’effraie le plus », a-t-il déclaré.

OpenAI a été contacté pour un commentaire

M. Holmen a reçu de fausses informations après avoir utilisé ChatGPT pour rechercher : « Qui est Arve Hjalmar Holmen ? »

La réponse qu’il a reçue de ChatGPT comprenait : « Arve Hjalmar Holmen est un Norvégien qui a attiré l’attention en raison d’un événement tragique.

« Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, qui ont été tragiquement retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »

M. Holmen a bien trois fils et a déclaré que le chatbot avait à peu près correctement déterminé leur âge, suggérant qu’il disposait d’informations précises à son sujet.

Le groupe de défense des droits numériques Noyb, qui a déposé la plainte en son nom, affirme que la réponse que ChatGPT lui a donnée est diffamatoire et enfreint les règles européennes de protection des données concernant l’exactitude des données personnelles.

Noyb a déclaré dans sa plainte que M. Holmen « n’a jamais été accusé ni condamné pour aucun crime et est un citoyen consciencieux ».

ChatGPT comporte une clause de non-responsabilité indiquant : « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes. »

Noyb dit que c’est insuffisant.

« On ne peut pas simplement diffuser de fausses informations et ajouter à la fin un petit avertissement disant que tout ce que l’on a dit n’est peut-être pas vrai », a déclaré l’avocat de Noyb, Joakim Söderberg.

Les hallucinations sont l’un des principaux problèmes que les informaticiens tentent de résoudre en matière d’IA générative.

C’est à ce moment-là que les chatbots présentent de fausses informations comme des faits.

Plus tôt cette année, Apple a suspendu son outil de résumé d’actualités Apple Intelligence au Royaume-Uni après avoir halluciné de faux titres et les avoir présentés comme de vraies nouvelles.

L’IA Gemini de Google a également été victime d’hallucinations : l’année dernière, elle a suggéré de coller du fromage sur une pizza à l’aide de colle et a déclaré que les géologues recommandaient aux humains de manger une pierre par jour.

ChatGPT a changé son modèle depuis la recherche de M. Holmen en août 2024 et recherche désormais des articles d’actualité lorsqu’il recherche des informations pertinentes.

Noyb a déclaré à la BBC que M. Holmen avait effectué un certain nombre de recherches ce jour-là, notamment en saisissant le nom de son frère dans le chatbot, ce qui a produit « plusieurs histoires différentes qui étaient toutes incorrectes ».

Ils ont également reconnu que les recherches précédentes auraient pu influencer la réponse concernant ses enfants, mais ont déclaré que les grands modèles linguistiques sont une « boîte noire » et qu’OpenAI « ne répond pas aux demandes d’accès, ce qui rend impossible d’en savoir plus sur les données exactes présentes dans le système ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

L’Italie inflige une amende à OpenAI pour violation des règles de confidentialité de ChatGPT

  • Le régulateur italien des données inflige une amende de 15 millions d’euros à OpenAI
  • L’entreprise estime que la décision est disproportionnée et va faire appel
  • Watchdog a brièvement banni ChatGPT l’année dernière
  • Open AI a reçu l’ordre de lancer une campagne médiatique sur l’utilisation des données de ChatGPT
Généré par IA

MILAN, 20 décembre (Reuters) – L’agence italienne de protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros (15,58 millions de dollars) au créateur de ChatGPT, OpenAI, après avoir clôturé une enquête sur l’utilisation de données personnelles par l’application d’intelligence artificielle générative.L’amende a été infligée après que l’autorité a constaté qu’OpenAI 

avait traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d’une base juridique adéquate et avait violé le principe de transparence et les obligations d’information connexes envers les utilisateurs ».

OpenAI a déclaré que la décision était « disproportionnée » et que la société allait faire appel.

L’enquête, qui a débuté en 2023, a également conclu que la société basée aux États-Unis ne disposait pas d’un système de vérification de l’âge adéquat pour empêcher les enfants de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a déclaré l’autorité.

L’organisme de surveillance italien a également ordonné à OpenAI de lancer une campagne de six mois dans les médias italiens pour sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs pour former les algorithmes.

L’autorité italienne, connue sous le nom de Garante, est l’un des régulateurs les plus proactifs de l’Union européenne dans l’évaluation de la conformité des plateformes d’IA avec le régime de confidentialité des données du bloc.

L’année dernière, l’utilisation de ChatGPT a été brièvement interdite en Italie en raison de violations présumées des règles de confidentialité de l’UE.

Le service a été réactivé après que Microsoft (MSFT.O), ouvre un nouvel onglet OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser leur consentement à l’utilisation de données personnelles pour former les algorithmes.« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de vingt fois les revenus que nous avons réalisés en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l’approche du Garante « porte atteinte aux ambitions de l’Italie en matière d’IA ».Le régulateur a déclaré que le montant de son amende de 15 millions d’euros avait été calculé en tenant compte de la « position coopérative » d’OpenAI, suggérant que l’amende aurait pu être encore plus élevée.

En vertu du règlement général sur la protection des données (RGPD) de l’UE, introduit en 2018, toute entreprise reconnue coupable d’avoir enfreint les règles s’expose à des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial.

Reportage d’Alessia Pe et Elvira Pollina Reportage supplémentaire de Supantha Mukherjee Montage d’Alvise Armellini et Frances Kerry

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil