Un policier ivre qui a agressé un chauffeur de taxi voit ses accusations abandonnées pour des raisons de « santé mentale »

Un policier hors service qui a frappé un chauffeur de taxi lors d’une nuit de forte consommation d’alcool à Sydney a vu son accusation abandonnée pour des raisons de santé mentale.

2–3 minutes

Le gendarme principal de la police de Nouvelle-Galles du Sud, Deane Thomas Bell, 33 ans, a comparu vendredi devant le tribunal local de Downing Centre pour l’agression qui a eu lieu devant un pub à Coogee juste après minuit le 14 avril de l’année dernière,a rapporté News.com.au.

Le conducteur a exigé un paiement anticipé de la part de Bell, car il avait peur de « s’enfuir », ce à quoi Bell a répondu « Je suis un policier » avant de le frapper au visage et de fuir les lieux, selon les faits convenus présentés au tribunal.

Bell a plaidé coupable, mais la magistrate Jennifer Giles a rejeté l’unique accusation de voies de fait simples, estimant qu’il était plein de remords et « hanté » par ses expériences en tant que policier.

« Il semble très clair que M. Bell est gravement malade depuis un certain temps », a-t-elle déclaré au tribunal, soulignant son « travail traumatisant en tant qu’agent de police, gérant les armes pointées sur lui, récupérant des cadavres, étant le premier sur les lieux lors d’accidents de bus ».



Le tribunal a appris que Bell buvait à l’époque pour « s’automédicamenter » et souffrait de SSPT et d’« hypervigilance ».

Mme Giles a déclaré au tribunal que l’attaque contre le conducteur était « quelque chose qui horrifiait Bell » et qu’il avait été « absolument servile en termes d’approche proactive de sa santé mentale » depuis lors.

L’avocat de Bell, Michael Gallagher, a déclaré au tribunal que son client était « ivre », avait agi « sur un coup de tête » et n’avait jamais eu de problèmes auparavant en demandant que l’affaire soit traitée en vertu de l’article 14 de la loi sur la santé mentale.

« Je soutiens que Votre Honneur serait parfaitement convaincu qu’au moment de l’infraction… le délinquant souffrait d’un problème de santé mentale », a déclaré M. Gallagher au tribunal.

Le procureur Brendan Donnelly a déclaré au tribunal qu’il reconnaissait qu’il existait un « argument convaincant » pour que l’affaire soit traitée en vertu de la loi sur la santé mentale, mais a déclaré que le chauffeur de taxi ne devrait pas être blâmé pour avoir refusé d’utiliser son compteur.

« Nous ne pouvons pas perdre de vue le fait qu’il s’agissait d’un prestataire de services assis sur le siège avant d’une voiture, il ne représentait une menace pour personne », a déclaré M. Donnelly.

Image d’en-tête : Deane Thomas Bell (fournie).

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


L’IA maléfique : comment les chatbots IA renforcent l’image négative que les adolescents ont d’eux-mêmes

L’intelligence artificielle est un secteur en constante évolution qui maîtrise les plateformes de médias sociaux, les médias d’information et presque tous les aspects de la culture Internet.

3–4 minutes
Généré par IA

Cet article peut contenir des déclarations qui reflètent l’opinion de l’auteur

(Article de Reese Thompson republié depuis DailyIowan.com )

Il est communément admis que les chatbots et les programmes d’intelligence artificielle sont des technologies relativement nouvelles. Le  premier chatbot  a en fait été programmé en 1966 par Joseph Weizenbaum, informaticien au MIT. 

Bien que ces applications ne soient pas nouvelles, le débat sur la question de savoir si l’IA est sûre ou appropriée pour les adolescents et les jeunes adultes a été lancé récemment. 

Plus tôt cette année,  Megan Garcia  a intenté une action en justice contre la société Character .AI, affirmant qu’elle était responsable du suicide de son fils. Son fils, Sewell Setzer III, a passé des mois à correspondre avec Character.AI et a été en communication avec le robot quelques instants avant sa mort. 

Immédiatement après le dépôt de la plainte, Character.AI a publié une déclaration annonçant de nouvelles fonctionnalités de sécurité pour l’application. 

La société a mis en place de nouvelles détections pour les utilisateurs dont les conversations enfreignent les directives de l’application, a mis à jour sa clause de non-responsabilité pour rappeler aux utilisateurs qu’ils interagissent avec un bot et non avec un humain, et envoie des notifications lorsque quelqu’un est sur l’application depuis plus d’une heure. 

La prochaine génération d’enfants devra apprendre à  séparer émotionnellement  les interactions humaines des interactions avec l’intelligence artificielle.

L’un des principaux problèmes de ces applications est qu’elles ne sont pas au fait de l’argot utilisé par les enfants et les adolescents, ni des nuances de la façon dont ils conversent entre eux. Cela peut conduire les robots à encourager involontairement des propos négatifs parce que l’algorithme ne connaît pas la formulation. 

Si quelqu’un s’appuie sur des chatbots IA pour ses interactions sociales, cela peut nuire à ses compétences sociales car il devient émotionnellement dépendant de la technologie, ce qui peut menacer ses relations interpersonnelles. 

Les technologies d’IA favorisent une augmentation du  temps passé devant un écran, car les conversations que l’on peut avoir avec un chatbot semblent interminables. Le chatbot continuera à répondre et à demander à l’utilisateur de répondre jusqu’à ce que l’appareil soit éteint. 

Snapchat a présenté son nouveau chatbot My AI aux utilisateurs le 27 février 2023. Cette application est unique par rapport aux autres car les utilisateurs peuvent nommer et habiller leur chatbot et créer une bio pour lui, ce qui personnalise sa personnalité. 

Par exemple, vous pouvez écrire dans la biographie du chatbot qu’il est drôle et extraverti, et il vous répondra en conséquence. Ce type de  personnalisation  inquiète les parents qui craignent que leurs enfants développent une relation avec leur chatbot et lui donnent la priorité sur leurs relations dans la vie réelle.

La dernière innovation en matière de technologie de chatbot IA a été lancée plus tôt cette année. Il s’agit du « Friend », un collier que vous pouvez porter tous les jours et qui abrite un robot.

L’appareil communique par SMS ou par notifications push via le téléphone de l’utilisateur. Vous pouvez maintenir un bouton enfoncé pour poser des questions au robot, mais l’appareil écoute toujours et envoie parfois des notifications spontanées en fonction de ce qu’il entend. 

Les dangers posés par l’IA générative et les chatbots renvoient tous à l’idée d’anthropomorphisme, définie comme l’attribution de qualités ou de comportements humains à un objet non humain. 

Attribuer un nom à un chatbot, lui donner une personnalité, un sens du style et même une voix peut inciter l’utilisateur à créer un attachement malsain à la technologie en raison de son côté réaliste. 

Les parents doivent être conscients des risques que ces technologies d’IA représentent pour la santé mentale et le bien-être général de leurs enfants. 

Lire la suite sur : DailyIowan.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Un médecin euthanasie un Canadien souffrant de problèmes de santé mentale et de douleurs chroniques au dos

Brieanna Charlebois  a rapporté pour la Presse Canadienne le 19 décembre  qu’un homme de Vancouver qui bénéficiait d’une permission de sortie psychiatrique est décédé par euthanasie à la clinique d’Ellen Wiebe

Généré par IA

La famille d’un homme de 52 ans qui a reçu l’aide médicale à mourir alors qu’il était en congé de jour dans un service psychiatrique d’un hôpital de Vancouver a lancé une contestation constitutionnelle du cadre juridique de la procédure.

L’affaire déposée devant la Cour suprême de la Colombie-Britannique indique que l’homme d’affaires et père de trois enfants, qui souffrait de maux de dos chroniques et d’une maladie mentale de longue durée, a subi un décès injustifié en décembre 2022.

Il ne s’agit pas de la première affaire judiciaire impliquant Ellen Wiebe, une médecin spécialisée en euthanasie de Vancouver, connue pour avoir tué plus de Canadiens par euthanasie que tout autre médecin.

Un juge de la Colombie-Britannique a suspendu l’euthanasie d’une femme de l’Alberta qui devait être euthanasiée par la Dre Ellen Wiebe le dimanche 27 octobre 2024. ( Lien vers la décision d’injonction ).

Charlebois rapporte que le cas :

…accuse le Dr Ellen Wiebe et sa clinique de faute professionnelle. Aucune de ces allégations n’a été prouvée devant les tribunaux.

Le dernier cas, qui n’identifie l’homme que par ses initiales, indique que si le cadre de l’AMM exclut les personnes souffrant uniquement de maladies mentales, il n’offre pas de garanties similaires pour les personnes atteintes de « maladies mentales et physiques concomitantes », augmentant ainsi les risques de décès prématuré.

La famille demande des dommages-intérêts pour un décès présumé injustifié ainsi qu’une déclaration selon laquelle les droits de l’homme garantis par la Charte ont été violés et que le cadre de l’AMM est invalide et inconstitutionnel.

Les demandeurs dont le seul problème médical est une maladie mentale resteront inéligibles à l’AMM au moins jusqu’en mars 2027.

Charlebois rapporte en outre que :

La poursuite indique que l’homme a reçu un diagnostic officiel de trouble bipolaire en 2013. Il souffrait également de douleurs chroniques au dos, mais cette blessure n’était ni suffisamment grave ni incurable pour le rendre éligible à l’AMM.

L’avis indique qu’il a demandé et obtenu l’approbation pour l’AMM, bien qu’il n’y ait pas de date. Mais ensuite, l’avis indique qu’il a décidé de suivre un traitement et une réadaptation à la place.

La famille de l’homme a obtenu une ordonnance du tribunal en vertu de la Loi sur la santé mentale pour l’interner dans un service psychiatrique de l’hôpital St. Paul, selon la poursuite. Elle allègue que l’hôpital et ses médecins lui ont permis de quitter l’hôpital « par négligence ou imprudence », après quoi il a bénéficié de l’AMM.

L’avocat soutient que l’homme n’était pas capable de prendre des décisions concernant sa santé à l’époque et que son choix a été influencé par des préoccupations financières. Il n’a pas donné son consentement éclairé « parce qu’il n’était pas en mesure de le faire ».

La famille n’a appris son décès que plus tard.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Des dizaines d’États poursuivent TikTok en justice pour avoir porté atteinte à la santé mentale des enfants

Plus d’une douzaine de procureurs généraux d’État, certains républicains et d’autres démocrates, poursuivent TikTok en justice pour les effets que l’application de médias sociaux aurait sur la santé mentale des jeunes.

L’interdiction pure et simple de TikTok n’ayant pas fonctionné comme prévu, la classe politique américaine tente de jouer la carte « mais pensez aux enfants ! » pour tenter d’empêcher TikTok d’être fonctionnel aux États-Unis.

La plainte conjointe, déposée par le procureur général du district de Columbia, accuse TikTok d’avoir trompé ses utilisateurs en affirmant que l’application est sans danger pour les enfants. TikTok est également accusée d’exploiter une entreprise illégale de transfert d’argent.

Le moment choisi pour intenter cette action en justice est particulièrement révélateur de ce qui l’a motivée. Les avocats de TikTok viennent de faire appel avec succès devant un tribunal fédéral d’une nouvelle loi qui aurait interdit TikTok après le 19 janvier 2025, à moins que ByteDance ne le vende à un acheteur non chinois. Les tribunaux ont jugé que cette interdiction était inconstitutionnelle, et les procureurs généraux des États tentent maintenant de poursuivre TikTok en justice en invoquant l’excuse de la santé mentale des enfants.

Au total, 13 États, dont New York et la Californie, ainsi que Washington DC, tentent de faire valoir que Tikok est rempli de fonctionnalités « addictives » qui le rendent dangereux pour les jeunes.

« Notre action en justice vise à tenir TikTok responsable des dommages causés aux enfants de DC », a déclaré le procureur général de DC, Brian Schwalb, sans sourciller.

Selon Schwalb, l’utilisation de TikTok comporte des risques « profonds » pour la santé mentale, notamment la dépression, l’anxiété, la perte de sommeil et la dysmorphie corporelle. Aucun de ces symptômes ne peut avoir quoi que ce soit à voir avec la façon dont les politiciens dirigent l’Amérique au nom des riches et des puissants au détriment de tous les autres – non, c’est entièrement la faute de TikTok, selon ces procureurs généraux.

(En lien avec cela : TikTok subit de fortes pressions pour interdire toute vérité et n’autoriser que la diffusion des récits officiels du gouvernement sur la plateforme.)

Les critiques disent que TikTok est une « nicotine numérique »

Pour souligner son aversion pour TikTok, Schwalb est même allé jusqu’à qualifier la plateforme de « nicotine numérique », sous-entendant que ses propriétaires « tentent intentionnellement de rendre les jeunes dépendants de leur plateforme ».

Il est intéressant de noter que Schwalb n’a aucun problème avec Facebook, X/Twitter et les autres réseaux sociaux, qui offrent tous les mêmes fonctionnalités. Seul TikTok est sur la sellette, ce qui nous amène à nous demander qui est vraiment derrière cette volonté de l’interdire.

Schwalb affirme que TikTok « inflige d’immenses dommages à toute une génération de jeunes » et doit donc être éliminé par tous les moyens possibles.

« En plus de donner la priorité à ses profits plutôt qu’à la santé des enfants, l’économie virtuelle non réglementée et illégale de TikTok permet aux recoins les plus sombres et les plus dépravés de la société de s’attaquer à des victimes vulnérables », a ajouté Schwalb.

« L’entreprise sait ce qui se passe et a choisi de l’ignorer. Cette action en justice vise à mettre un terme à son comportement illégal, trompeur et prédateur. »

Outre DC, New York et la Californie, les autres États qui se joignent à la plainte contre TikTok sont :

• Illinois
• Kentucky
• Louisiane
• Massachusetts
• Mississippi
• New Jersey
• Caroline du Nord
• Oregon
• Caroline du Sud
• Vermont
• Washington

Dans un communiqué, un porte-parole de TikTok a répondu que la société était « fermement » en désaccord avec les allégations selon lesquelles l’existence même de la plateforme détruit le cerveau des enfants.

« Nous sommes en profond désaccord avec ces affirmations, dont beaucoup nous semblent inexactes et trompeuses », a déclaré le porte-parole.

« Nous sommes fiers de notre engagement profond envers le travail que nous avons accompli pour protéger les adolescents et nous continuerons à mettre à jour et à améliorer notre produit. Nous fournissons des mesures de protection solides, supprimons de manière proactive les utilisateurs mineurs suspects et avons volontairement lancé des fonctionnalités de sécurité telles que les limites de temps d’écran par défaut, le jumelage familial et la confidentialité par défaut pour les mineurs de moins de 16 ans. »

Le gouvernement se moque éperdument de la santé mentale des enfants. Dans ce cas précis, sa seule préoccupation est de faire taire la liberté d’expression.

Les sources de cet article incluent :

CNBC.com

NaturalNews.com

Cliquez ci-dessous pour voir l’article :

Voir l’article

Aller à l’accueil