OpenAI doit sauvegarder toutes les conversations ChatGPT, même celles que vous supprimez.

Des messages privés autrefois considérés comme éphémères pourraient désormais vivre éternellement, grâce aux demandes du New York Times.

3–4 minutes

Une ordonnance d’un tribunal fédéral exigeant qu’OpenAI conserve toutes les conversations ChatGPT, y compris celles que les utilisateurs ont supprimées, devrait susciter de vives inquiétudes parmi les défenseurs de la vie privée et ajouter une pression à une bataille juridique croissante concernant l’utilisation de matériel protégé par le droit d’auteur dans les systèmes d’IA.

Le 13 mai, la juge fédérale Ona T. Wang a ordonné à OpenAI de « préserver et de séparer toutes les données de journal de sortie qui seraient autrement supprimées à l’avenir jusqu’à nouvel ordre du tribunal ». Bien que l’ordonnance ait été émise il y a plusieurs semaines, elle n’a été portée à l’attention du public que cette semaine, alors qu’OpenAI a commencé à prendre des mesures formelles pour la contester.

Cette décision fait suite à de multiples poursuites intentées par des organisations médiatiques, dont le New York Times, qui accusent OpenAI d’utiliser illégalement son contenu protégé par le droit d’auteur pour former et exploiter ChatGPT.

En réponse, OpenAI a soumis un dossier exhortant le juge de district américain Sidney H. Stein à annuler ce qu’il a décrit comme une « ordonnance radicale et sans précédent ».

L’entreprise a fait valoir que la directive l’oblige à ignorer les choix des utilisateurs concernant la suppression de leurs données, mettant ainsi en péril la vie privée de millions de personnes. OpenAI a également cité une déclaration du comité de rédaction du New York Times affirmant que les Américains « devraient pouvoir contrôler ce qu’il advient de leurs données personnelles ».

L’entreprise a souligné que ChatGPT est fréquemment utilisé pour des questions très personnelles telles que la planification financière, les conseils aux entreprises et les questions relationnelles sensibles. Enregistrer chaque message, y compris ceux que les utilisateurs souhaitent effacer, risquerait d’exposer des informations privées et serait contraire aux politiques de confidentialité d’OpenAI.

« Le New York Times et d’autres plaignants ont formulé une demande radicale et inutile dans leur action en justice infondée contre nous : conserver indéfiniment les données clients de ChatGPT et de l’API », a déclaré Brad Lightcap, directeur de l’exploitation d’OpenAI, dans un communiqué. « Cela est fondamentalement contraire aux engagements que nous avons pris envers nos utilisateurs en matière de confidentialité. Cela remet en cause des normes de confidentialité établies de longue date et affaiblit les protections de la vie privée. »

Le juge Wang a rejeté la requête d’OpenAI visant à lever l’ordonnance le 29 mai, assurant l’entreprise lors de la procédure que les données des utilisateurs ne seraient pas rendues publiques. Néanmoins, cette décision a suscité de nombreuses inquiétudes quant à la manière dont les informations des utilisateurs seront traitées à l’avenir.

Les médias qui portent plainte insistent sur l’importance de préserver l’intégralité des conversations des utilisateurs. Ils estiment que les données pourraient montrer que ChatGPT a été utilisé pour résumer des articles payants ou reproduire du matériel protégé par le droit d’auteur. OpenAI a répliqué, arguant qu’aucune preuve significative n’a été présentée pour étayer ces allégations et que les affirmations des plaignants sont spéculatives.

Dans ses documents judiciaires, OpenAI a souligné que les plaignants n’avaient pas démontré en quoi les données supprimées seraient plus pertinentes que celles que l’entreprise conserve déjà. L’entreprise a également averti que se conformer à la directive du tribunal imposerait des contraintes techniques et juridiques majeures, nécessitant peut-être une refonte fondamentale de son infrastructure et de ses politiques.

OpenAI a déclaré que cette exigence créerait un « fardeau substantiel » sur ses opérations et pourrait contraindre l’entreprise à agir contre ses propres engagements en matière de confidentialité.

Si le tribunal ne change pas de cap, les utilisateurs de ChatGPT devront peut-être supposer que chaque interaction est désormais enregistrée de manière permanente.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


L’Italie inflige une amende à OpenAI pour violation des règles de confidentialité de ChatGPT

  • Le régulateur italien des données inflige une amende de 15 millions d’euros à OpenAI
  • L’entreprise estime que la décision est disproportionnée et va faire appel
  • Watchdog a brièvement banni ChatGPT l’année dernière
  • Open AI a reçu l’ordre de lancer une campagne médiatique sur l’utilisation des données de ChatGPT
Généré par IA

MILAN, 20 décembre (Reuters) – L’agence italienne de protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros (15,58 millions de dollars) au créateur de ChatGPT, OpenAI, après avoir clôturé une enquête sur l’utilisation de données personnelles par l’application d’intelligence artificielle générative.L’amende a été infligée après que l’autorité a constaté qu’OpenAI 

avait traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d’une base juridique adéquate et avait violé le principe de transparence et les obligations d’information connexes envers les utilisateurs ».

OpenAI a déclaré que la décision était « disproportionnée » et que la société allait faire appel.

L’enquête, qui a débuté en 2023, a également conclu que la société basée aux États-Unis ne disposait pas d’un système de vérification de l’âge adéquat pour empêcher les enfants de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a déclaré l’autorité.

L’organisme de surveillance italien a également ordonné à OpenAI de lancer une campagne de six mois dans les médias italiens pour sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs pour former les algorithmes.

L’autorité italienne, connue sous le nom de Garante, est l’un des régulateurs les plus proactifs de l’Union européenne dans l’évaluation de la conformité des plateformes d’IA avec le régime de confidentialité des données du bloc.

L’année dernière, l’utilisation de ChatGPT a été brièvement interdite en Italie en raison de violations présumées des règles de confidentialité de l’UE.

Le service a été réactivé après que Microsoft (MSFT.O), ouvre un nouvel onglet OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser leur consentement à l’utilisation de données personnelles pour former les algorithmes.« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de vingt fois les revenus que nous avons réalisés en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l’approche du Garante « porte atteinte aux ambitions de l’Italie en matière d’IA ».Le régulateur a déclaré que le montant de son amende de 15 millions d’euros avait été calculé en tenant compte de la « position coopérative » d’OpenAI, suggérant que l’amende aurait pu être encore plus élevée.

En vertu du règlement général sur la protection des données (RGPD) de l’UE, introduit en 2018, toute entreprise reconnue coupable d’avoir enfreint les règles s’expose à des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial.

Reportage d’Alessia Pe et Elvira Pollina Reportage supplémentaire de Supantha Mukherjee Montage d’Alvise Armellini et Frances Kerry

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil