Un ancien employé d’Auburn porte plainte contre l’université pour discrimination anti-blanche

Un ancien employé de l’Université d’Auburn poursuit l’école pour discrimination raciale et fondée sur l’âge.

Le responsable de la maintenance, Henry Moreman, affirme avoir été rétrogradé à tort et s’être vu interdire toute promotion.

2–3 minutes

Brendan McDonald , promotion 2025 | Correspondant du New Hampshire

Un ancien employé de l’Université d’Auburn poursuit l’établissement en justice pour discrimination raciale, affirmant avoir été rétrogradé en raison de sa couleur de peau. Cependant, l’université affirme avoir rétrogradé l’homme parce qu’il avait discriminé un autre employé en raison de son âge.

La plainte a été déposée en février devant le tribunal fédéral du district central de l’Alabama, division Est, mais n’a fait la une des journaux que la semaine dernière. L’affaire sera jugée devant un jury en décembre 2026.

Selon la plainte , Henry Moreman, 40 ans, travaille pour l’université depuis 2018 comme responsable de la maintenance. L’année dernière, un jeune employé noir que Moreman formait a déposé une plainte officielle contre lui pour discrimination raciale et liée à l’âge. L’université a jugé Moreman coupable d’avoir enfreint la loi sur la discrimination fondée sur l’âge dans l’emploi (ADEA). 

Moreman nie avoir discriminé cet homme. De plus, la plainte soutient que l’ADEA s’applique aux personnes de quarante ans et plus, et que l’homme en question avait 26 ans à l’époque. 

En novembre, suite à la plainte de l’autre employé, l’université a rétrogradé Moreman à « un poste plus adapté au sein de la gestion des installations, qui n’implique ni ne requiert la supervision d’autres employés », selon la plainte. De plus, cette rétrogradation empêche Moreman d’être promu pendant cinq ans. 

Il affirme que l’action de l’université révèle une discrimination raciale et fondée sur l’âge. L’université a nié les accusations dans des documents déposés en février, selon Alabama Live . 



L’affaire Moreman présente des similitudes avec une récente affaire de la Cour suprême relative à la « discrimination à rebours », une forme de discrimination positive. Le 5 juin, la Cour a rejeté l’argument d’une juridiction inférieure fondé sur les « circonstances contextuelles » – un niveau d’examen plus rigoureux pour les plaignants qui allèguent une discrimination malgré leur appartenance à un groupe majoritaire (par exemple, blanc, homme ou hétérosexuel) ; la Cour suprême a rendu un arrêt à 9 voix contre 0.

Dans cette affaire, Marlean Ames, employée du Département des services à la jeunesse de l’Ohio depuis 2004, a affirmé avoir perdu une promotion au profit d’une lesbienne, puis avoir été remplacée par un homme gay. 

Plusieurs tribunaux ont jugé que l’affaire d’Ames ne pouvait pas être traitée parce qu’elle ne remplissait pas l’exigence de « circonstances contextuelles », mais la décision de la Cour suprême a permis à son affaire d’aller de l’avant.

Un porte-parole de l’Université d’Auburn a déclaré à Campus Reform plus tôt cette semaine que « l’Université d’Auburn ne commente pas les litiges en cours ».


Auteur

Brendan McDonald ’25

Correspondant du New Hampshire

Brendan McDonald est étudiant en master d’études théologiques. Diplômé du Thomas More College, il s’intéresse à l’écriture et à la communication.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Un homme porte plainte après que ChatGPT a déclaré qu’il avait tué ses enfants

Un Norvégien a déposé plainte après que ChatGPT lui a faussement dit qu’il avait tué deux de ses fils et qu’il avait été emprisonné pendant 21 ans.

2–4 minutes

Arve Hjalmar Holmen a contacté l’Autorité norvégienne de protection des données et a exigé que le créateur du chatbot, OpenAI, soit condamné à une amende.

Il s’agit du dernier exemple en date de ce que l’on appelle les « hallucinations », où les systèmes d’intelligence artificielle (IA) inventent des informations et les présentent comme des faits.

M. Holmen dit que cette hallucination particulière lui est très préjudiciable.

« Certains pensent qu’il n’y a pas de fumée sans feu – le fait que quelqu’un puisse lire ce message et croire qu’il est vrai est ce qui m’effraie le plus », a-t-il déclaré.

OpenAI a été contacté pour un commentaire

M. Holmen a reçu de fausses informations après avoir utilisé ChatGPT pour rechercher : « Qui est Arve Hjalmar Holmen ? »

La réponse qu’il a reçue de ChatGPT comprenait : « Arve Hjalmar Holmen est un Norvégien qui a attiré l’attention en raison d’un événement tragique.

« Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, qui ont été tragiquement retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »

M. Holmen a bien trois fils et a déclaré que le chatbot avait à peu près correctement déterminé leur âge, suggérant qu’il disposait d’informations précises à son sujet.

Le groupe de défense des droits numériques Noyb, qui a déposé la plainte en son nom, affirme que la réponse que ChatGPT lui a donnée est diffamatoire et enfreint les règles européennes de protection des données concernant l’exactitude des données personnelles.

Noyb a déclaré dans sa plainte que M. Holmen « n’a jamais été accusé ni condamné pour aucun crime et est un citoyen consciencieux ».

ChatGPT comporte une clause de non-responsabilité indiquant : « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes. »

Noyb dit que c’est insuffisant.

« On ne peut pas simplement diffuser de fausses informations et ajouter à la fin un petit avertissement disant que tout ce que l’on a dit n’est peut-être pas vrai », a déclaré l’avocat de Noyb, Joakim Söderberg.

Les hallucinations sont l’un des principaux problèmes que les informaticiens tentent de résoudre en matière d’IA générative.

C’est à ce moment-là que les chatbots présentent de fausses informations comme des faits.

Plus tôt cette année, Apple a suspendu son outil de résumé d’actualités Apple Intelligence au Royaume-Uni après avoir halluciné de faux titres et les avoir présentés comme de vraies nouvelles.

L’IA Gemini de Google a également été victime d’hallucinations : l’année dernière, elle a suggéré de coller du fromage sur une pizza à l’aide de colle et a déclaré que les géologues recommandaient aux humains de manger une pierre par jour.

ChatGPT a changé son modèle depuis la recherche de M. Holmen en août 2024 et recherche désormais des articles d’actualité lorsqu’il recherche des informations pertinentes.

Noyb a déclaré à la BBC que M. Holmen avait effectué un certain nombre de recherches ce jour-là, notamment en saisissant le nom de son frère dans le chatbot, ce qui a produit « plusieurs histoires différentes qui étaient toutes incorrectes ».

Ils ont également reconnu que les recherches précédentes auraient pu influencer la réponse concernant ses enfants, mais ont déclaré que les grands modèles linguistiques sont une « boîte noire » et qu’OpenAI « ne répond pas aux demandes d’accès, ce qui rend impossible d’en savoir plus sur les données exactes présentes dans le système ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire