Wikipédia Woke dépense une fortune en politiques DEI – Elon Musk exhorte les gens à arrêter de leur donner de l’argent

Le parti pris de gauche de Wikipédia est bien connu. Les conservateurs le soulignent depuis des années.

Généré par IA

Il a maintenant été révélé qu’en tant qu’entreprise, Wikipédia dépense énormément d’argent dans les politiques de diversité, d’équité et d’inclusion (DEI), ce qui n’est pas du tout surprenant.

Cela ne fait que confirmer ce que les conservateurs disent depuis toujours à propos de l’encyclopédie en ligne.

Jetez un oeil à ceci :

Elon Musk a retweeté ceci, soulignant que lorsque vous leur faites un don, voici comment ils dépensent l’argent :

Elon Musk a exhorté ses partisans à ne pas faire de don à l’association à but non lucratif qui gère Wikipédia après que l’organisation ait budgétisé plus de 50 millions de dollars pour financer des initiatives controversées en matière de diversité, d’équité et d’inclusion (DEI).

« Arrêtez de faire des dons à Wokepedia jusqu’à ce qu’ils rétablissent l’équilibre dans leur autorité éditoriale », a écrit Elon Musk mardi sur X, où il compte près de 210 millions d’abonnés.

Le magnat de Tesla et conseiller clé du président élu Donald Trump répondait à un message du commentateur de droite « Libs of TikTok », qui a partagé un graphique à secteurs montrant que 29 % du budget de 177 millions de dollars de Wikipédia pour 2023-24 étaient destinés à « l’équité » et à « la sécurité et l’inclusion ».

La Fondation Wikimedia a déclaré s’être fixé comme objectif de consacrer 51,7 millions de dollars à son budget : 17,6 % (31,2 millions de dollars) aux capitaux propres et 11,6 % (20,5 millions de dollars) à la sécurité et à l’inclusion. L’infrastructure a reçu la majeure partie des 177 millions de dollars avec 48,7 % (86,1 millions de dollars), suivie de 22,2 % (39,2 millions de dollars) pour l’efficacité.

Si les gauchistes veulent continuer à donner de l’argent à Wikipédia, c’est leur affaire. Personne d’autre ne devrait soutenir le site tant qu’il aura des préjugés contre les conservateurs et gaspillera les fonds donnés sur des absurdités de DEI.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Comptes Facebook piratés en 2018: 251 millions d’euros d’amende contre Meta

La peine pécuniaire a été infligée par le régulateur irlandais pour la protection des données, pour le compte de l’Union européenne.

1–2 minutes
Généré par IA

Le géant des réseaux sociaux Meta a écopé mardi d’une amende de 251 millions d’euros de la part du régulateur irlandais pour la protection des données, qui agit pour le compte de l’Union européenne, après une faille de sécurité qui a compromis des millions de comptes Facebook en 2018.

Ce défaut de sécurité avait permis à des pirates informatiques d’accéder aux données personnelles de 29 millions de comptes, dont 3 millions en Europe, pouvant inclure le nom complet, l’adresse email, le numéro de téléphone ou encore la date de naissance ou la religion, écrit la Commission irlandaise pour la protection des données (DPC) dans un communiqué.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Pornhub va être jugé pour avoir tiré profit de vidéos et d’images d’abus sur des adolescents

Note de l’éditeur : Attention, cet article contient des descriptions de contenus sexuellement exploitables que certains lecteurs pourraient trouver dérangeants. 

3–5 minutes

Pornhub n’a fait aucune tentative pour vérifier l’identité d’une jeune fille de 16 ans dont l’agresseur a mis en ligne des vidéos montrant son viol et son exploitation sexuelle, selon un procès alléguant que l’entreprise a sciemment profité du trafic sexuel d’enfants. 

Dans une décision rendue jeudi dernier, le juge fédéral L. Scott Coogler du tribunal de district des États-Unis pour le district nord de l’Alabama a rejeté la requête de Pornhub en vue d’obtenir un jugement sommaire en réponse à la plainte de l’adolescente. La plaignante est désignée sous le nom de « Jane Doe » dans le document juridique, Pornhub et sa société mère MindGeek, qui a changé de nom pour devenir Aylo l’année dernière, faisant office de défendeurs. 

Le tribunal a rejeté l’affirmation du géant de la pornographie selon laquelle il est à l’abri de toute responsabilité en raison de l’article 230, qui protège généralement les plateformes en ligne contre les poursuites judiciaires basées sur le contenu généré par les utilisateurs. En conséquence, le procès de l’adolescent sera jugé. 

Laila Mickelwait, PDG du Justice Defense Fund et auteur de Takedown: Inside the Fight to Shut Down Pornhub for Child Abuse, Rape and Sex Trafficking , a salué la décision. Cette militante a consacré des années de sa vie à tenir Pornhub et sa société mère responsables de la diffusion de vidéos montrant des abus sexuels. 

« Cette décision est un grand pas en avant pour la justice », a déclaré Mickelwait dans une déclaration fournie au Christian Post. « Les preuves de la complicité criminelle des dirigeants de Pornhub sont accablantes. En plus de la restitution pour toutes les victimes, des poursuites pénales complètes contre l’entreprise et ses dirigeants sont essentielles pour garantir la justice pour les survivants et pour dissuader les futurs agresseurs. »

Pornhub et sa société mère Aylo n’ont pas répondu à la demande de commentaires du Christian Post. 

Jane Doe avait 16 ans au début de l’année 2018 lorsque son agresseur l’a filmée en train de se livrer à un acte sexuel dans sa voiture, selon le document. Le visage de la jeune fille était visible dans la vidéo que l’homme a mise en ligne sur son compte Pornhub en février 2018. 

L’agresseur a participé à un programme sur Pornhub qui lui permettait de gagner de l’argent en mettant en ligne des vidéos sur le site. Le géant de la pornographie a également profité des revenus générés par les vues et les téléchargements de la vidéo montrant les abus commis sur Jane Doe. 

L’homme est également accusé d’avoir drogué Jane Doe et de s’être filmé en train de la violer dans une chambre d’hôtel, qu’il a ensuite téléchargé sur Pornhub en mai 2020. Le contenu mis en ligne décrivant les abus de Jane Doe comprenait 34 vidéos et six albums photo.

L’auteur a ensuite plaidé coupable en avril 2022 de « diffusion/affichage de matériel obscène » impliquant une personne de moins de 17 ans, et a été condamné à 10 ans de prison. Jane Doe a intenté un recours collectif contre les accusés en février 2021. 

Un autre problème mis en évidence par le juge dans sa décision concernait l’algorithme que les défendeurs ont créé pour leurs sites. Coogler a noté que les défendeurs utilisent des balises et des mots-clés qui aident les téléchargeurs à faire de la publicité et à localiser le matériel pédopornographique. 

« En effet, les défendeurs ont suivi le trafic et le profit que chaque catégorie et chaque tag leur rapportaient, jusqu’au montant en dollars par mois et par jour pour les tags les plus populaires », a-t-il écrit. « Par exemple, en octobre 2019, la catégorie « adolescent » était la 6e catégorie la plus populaire, rapportant plus de 150 000 $ ce mois-là, soit un peu plus de 30 % du chiffre d’affaires total de ce mois-là. »

« Le tag « jeune » est classé numéro 2 , « adolescent » numéro 3 et « adolescent » numéro 13 ce même mois, chacun gagnant respectivement plus de 132 000 $, 117 000 $ et 54 000 $ », a poursuivi le juge fédéral. 

Les dirigeants du site pornographique ont également résisté aux tentatives de suppression de certains termes de recherche, comme « jeune fille », citant un courriel dans lequel l’un des collègues des accusés s’opposait à l’ajout du terme à une liste de « mots interdits ». Le dirigeant a affirmé qu’il ne pensait pas que « jeune fille » impliquait mineur de la même manière que « jeune garçon ». 

Les défenseurs de la lutte contre l’exploitation sexuelle expriment leur gratitude envers la décision du juge fédéral qui a révélé comment Pornhub profite de l’exploitation sexuelle et du trafic sexuel. 

« Cette décision importante est une victoire pour la courageuse survivante-plaignante car elle garantit que Pornhub ne peut pas utiliser l’article 230 comme bouclier juridique et doit rendre des comptes pour avoir profité de ses abus sexuels sur mineurs », a déclaré Dani Pinter, vice-présidente principale et directrice du National Center on Sexual Exploitation Law Center, dans un communiqué  partagé avec CP. 

Le NCOSE Law Center est l’un des nombreux cabinets représentant Jane Doe. 

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Albanie interdit TikTok pendant un an après le meurtre d’un adolescent

L’Albanie a annoncé le 22 décembre l’interdiction d’un an de TikTok, l’application populaire de vidéos courtes, après le meurtre d’un adolescent le mois dernier, qui a suscité des craintes quant à l’influence des médias sociaux sur les enfants.

Généré par IA

L’interdiction, qui fait partie d’un plan plus large visant à rendre les écoles plus sûres, entrera en vigueur au début de l’année prochaine, a déclaré le Premier ministre Edi Rama après avoir rencontré des groupes de parents et des enseignants de tout le pays.

« Pendant un an, nous allons fermer complètement TikTok pour tout le monde. Il n’y aura plus de TikTok en  Albanie », a déclaré Rama.

Plusieurs pays européens, dont la France, l’Allemagne et la Belgique, ont imposé des restrictions sur l’utilisation des réseaux sociaux par les enfants.

Dans l’une des réglementations les plus strictes au monde visant les grandes technologies, l’Australie a approuvé en novembre une interdiction complète des réseaux sociaux pour les enfants de moins de 16 ans.

Rama a accusé les réseaux sociaux et TikTok en particulier d’alimenter la violence parmi les jeunes à l’intérieur et à l’extérieur de l’école.

La décision de son gouvernement intervient après qu’un écolier de 14 ans a été poignardé à mort en novembre par un autre élève.

Les médias locaux ont rapporté que l’incident faisait suite à des disputes entre les deux garçons sur les réseaux sociaux. Des vidéos de mineurs soutenant le meurtre étaient également apparues sur TikTok.

« Le problème aujourd’hui, ce ne sont pas nos enfants, le problème aujourd’hui, c’est nous, le problème aujourd’hui, c’est notre société, le problème aujourd’hui, c’est TikTok et tous les autres qui prennent nos enfants en otage », a déclaré Edi Rama.

TikTok a déclaré qu’il recherchait « des éclaircissements urgents » auprès du gouvernement  albanais .

« Nous n’avons trouvé aucune preuve que l’auteur ou la victime avait des comptes TikTok, et plusieurs rapports ont en fait confirmé que les vidéos menant à cet incident étaient publiées sur une autre plateforme, et non sur TikTok », a déclaré un porte-parole de l’entreprise.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Aller à l’accueil

Bienvenue en absurdie : La cavalière : des choses fascinantes que vous ne saviez pas sur Ayla Kristine

Qui n’a jamais rêvé de parcourir les vastes espaces à dos de cheval de course, de sauter par-dessus les rochers et les petites crevasses comme tous ces célèbres cow-boys ? Certains ont peut-être réalisé leur rêve équestre en s’inscrivant à des cours d’équitation, tandis que d’autres, inspirés par les mythes grecs sur les centaures, ont admiré en silence la beauté de ces chevaux cabrés avant de décider de le devenir eux-mêmes. Incroyable, Ayla Kristine, une jeune fille norvégienne, a réellement pris la décision de devenir un cheval et a même connu un certain succès.

Certains enfants, une fois grands, veulent devenir astronautes ou YouTubeurs, mais depuis l’âge de quatre ans, Ayla rêve d’être un animal. Au début, elle admirait les chiens et marchait à quatre pattes comme eux, mais ensuite elle s’est rendu compte que les chevaux étaient plus gracieux et nobles que les chiots. Si vous avez lu Gulliver de Jonathan Swift, vous vous souviendrez probablement de la race de chevaux intelligents, les Houyhnhnms, qui étaient l’incarnation de la perfection. Ce n’est pas seulement le fantasme de l’auteur, ces créatures majestueuses font vraiment forte impression.

Le passe-temps d’Ayla n’est pas seulement d’imiter les chevaux, mais aussi de les transformer de manière magistrale. Elle n’est pas devenue du jour au lendemain une créature de la nature équine. C’est le résultat de nombreuses années d’entraînement minutieux. Aujourd’hui, elle galope avec aisance et saute pratiquement par-dessus les obstacles. Ce qui est vraiment remarquable, c’est qu’à tous les autres égards, Ayla est une fille tout à fait ordinaire avec ses propres émotions, expériences, aspirations et compétences. Elle ne hennit pas comme un cheval, ne mange pas d’avoine et ne dort probablement pas debout.

Ayla avait un compte Instagram où elle postait ses entraînements et ses progrès dans le domaine équin. L’un de ses abonnés a posté une vidéo d’elle sur son compte Twitter avec la légende « Cavalière ». Dans la vidéo, la jeune fille galope seule et avec un chien dans un champ. Elle saute par-dessus un banc et une table de jardin avec une telle habileté que cela semble invraisemblable, voire même étrange. Après que ce tweet a explosé, gagnant plus de 7 000 mentions « j’aime », la jeune fille est devenue virale. Et avec sa popularité, elle a été suivie par des tonnes et des tonnes de haineux, car c’est ainsi qu’Internet fonctionne. Ayla a commencé à recevoir des commentaires désagréables, avec de plus en plus de pervers qui la sexualisaient de toutes les manières possibles.

Ayla a été profondément blessée par les commentaires, ce qui l’a incitée à écrire un message dans lequel elle se demandait si elle devait supprimer son compte. Elle a admis qu’elle était influençable, racontant comment elle avait lu un jour un article sur le lien entre les grains de beauté et le cancer et avait commencé à s’inquiéter pour sa santé. Les abonnés qui ont apprécié le talent de la jeune fille ont commencé à lui écrire des commentaires gentils. Ils lui ont conseillé de continuer à faire ce qu’elle aimait et de ne pas prêter attention aux haters. Le compte Instagram d’Ayla a continué à fonctionner pendant un certain temps, mais, malheureusement, le compte n’existe plus. On ne sait pas ce qui l’a poussée à craquer, mais c’était probablement pour le mieux. Soit la jeune fille n’a pas pu résister à l’afflux de haters, soit elle était simplement fatiguée de publier des vidéos pour que tout le monde les voie.

Cependant, l’art de faire du cheval n’a pas disparu avec la suppression du compte d’Ayla. Il y a des filles qui se livrent également avec succès à de telles activités. Par exemple, Ava Vogel, du Canada, s’est mise à l’équitation pour comprendre la physique du saut d’obstacles et a ensuite décidé de sauter des haies à la manière d’un cheval. Une autre cavalière célèbre, Anna Salander, a publié il y a quelques années une vidéo d’elle-même sautant des haies avec facilité à l’âge de 10 ans. Selon les entraîneurs expérimentés, de tels exercices sont très utiles pour développer les muscles de tout le corps.

Alors, bon, peut-être devrions-nous faire de la place pour une nouvelle discipline olympique ?

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’IA de surveillance détecte les idées suicidaires dans les écoles et envoie la police au domicile des élèves

À l’ère de l’intégration croissante de la technologie dans tous les aspects de la vie, les écoles se trouvent à l’avant-garde d’une tendance inquiétante : l’utilisation généralisée de logiciels basés sur l’IA pour surveiller et analyser le comportement et la santé mentale de leurs élèves. Ce qui a commencé comme un effort bien intentionné pour protéger les enfants contre l’automutilation s’est transformé en un scénario complexe et souvent troublant, où la surveillance et les algorithmes d’IA déterminent si les enfants sont suicidaires en fonction de leur activité informatique .

Généré par IA

Le New York Times a récemment fait état de l’utilisation de logiciels comme GoGuardian Beacon , qui enregistre chaque mot tapé sur les appareils fournis par l’école afin d’identifier d’éventuelles idées suicidaires. Cependant, les résultats sont loin d’être rassurants. Le logiciel interprète souvent mal les communications des élèves, ce qui entraîne de fausses alertes et, dans certains cas, l’intervention des forces de l’ordre.

Un logiciel de surveillance IA envoie la police au domicile des étudiants

À Neosho, dans le Missouri, une jeune fille de 17 ans a été réveillée au milieu de la nuit par la police après qu’un poème qu’elle avait écrit il y a des années a été signalé par GoGuardian Beacon. L’incident a été décrit par sa mère comme l’une des expériences les plus traumatisantes de sa vie. Ce n’est qu’un des nombreux incidents documentés qui soulèvent de sérieuses questions sur l’efficacité et l’éthique de cette technologie.

Ces systèmes, qui reposent sur une collecte de données sophistiquée , constituent une atteinte importante à la vie privée des étudiants, et leur efficacité est peu prouvée. Les groupes de défense des droits civiques sont particulièrement alarmés par l’implication des forces de l’ordre dans ce qui s’avère souvent être de fausses alertes. Le manque de transparence et de responsabilité des entreprises à l’origine de ces technologies constitue une autre préoccupation majeure.

De plus, le déploiement d’outils d’IA dans les salles de classe ne se limite pas aux systèmes d’intervention d’urgence. Des plateformes comme SchoolAI prétendent aider les enseignants à répondre non seulement aux besoins académiques, mais aussi aux aspects sociaux, comportementaux et de santé mentale de leurs élèves. Cette approche holistique semble prometteuse à première vue, mais elle soulève également de sérieuses questions sur les véritables intentions derrière cette technologie.

Par exemple, certains enseignants utilisent l’outil « sonnerie » de SchoolAI pour interagir avec les élèves grâce à un chatbot qui recueille des informations sur leur humeur et leur attitude à l’égard de l’apprentissage. Le système génère ensuite une « carte thermique » permettant à l’enseignant de surveiller les émotions des élèves. Si les partisans de cette méthode affirment qu’elle aide les enseignants à identifier les élèves qui ont besoin de soutien, beaucoup y voient une autre forme de surveillance intrusive.

Les systèmes de surveillance de l’IA peuvent élargir le fossé entre les interactions humaines, perpétuant ainsi les luttes mentales

Ces systèmes d’IA constituent-ils vraiment la meilleure approche pour assurer le bien-être mental des élèves ? Cette technologie semble fournir une solution superficielle, en offrant aux enseignants un « centre de commandement et de contrôle » pour surveiller l’état émotionnel de leurs élèves . Cependant, elle soulève des inquiétudes quant à l’impact à long terme d’une telle surveillance constante sur la vie privée et l’autonomie des élèves.

De plus, l’utilisation de l’IA dans les centres de conseil scolaire pour recueillir et analyser des données sur les niveaux de santé mentale des élèves, tels que l’anxiété, la dépression et le bonheur général, semble brouiller les frontières entre thérapie et surveillance. À mesure que ces outils deviennent plus sophistiqués, ils peuvent fournir des informations en temps réel sur le comportement des élèves, mais ils risquent également de transformer les écoles en environnements où la vie privée n’est qu’une considération secondaire et où l’attention d’un conseiller ou d’un enseignant humain est réduite à une simple collecte de données, au lieu d’une véritable préoccupation humaine.

L’IA dans les écoles est souvent présentée comme un moyen d’améliorer l’efficacité et l’allocation des ressources. Les enseignants et les administrateurs n’hésitent pas à souligner les avantages potentiels, comme la réduction de la charge de travail et l’amélioration du soutien émotionnel des élèves. Cependant, les risques sont tout aussi importants : les élèves se sentent moins soutenus émotionnellement qu’avant, les administrateurs jouent sur leur humeur et s’immiscent dans leurs pensées.

Alors que nous continuons d’intégrer l’IA dans nos écoles, nous devons nous demander : est-ce que nous nous attaquons vraiment aux causes profondes de la détresse des élèves, ou est-ce que nous créons simplement un environnement dans lequel les élèves sont constamment surveillés, leurs paroles et leurs actions analysées à la recherche d’éventuels signaux d’alerte ? La promesse de la technologie pour aider les élèves est indéniable, mais elle doit être mise en balance avec les préoccupations bien réelles en matière de confidentialité, d’autonomie et de risque d’utilisation abusive.

Les sources incluent :

Technocratie.actualités

NYTimes.com

Futurisme.com

WestJordanJournal.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Le Parlement européen approuve la création d’un comité pour lutter contre la « désinformation » en ligne

Le bouclier démocratique européen brouillera la frontière entre la lutte contre la désinformation et le contrôle de la liberté d’expression.

Généré par IA

Le Parlement européen a franchi une nouvelle étape dans ses efforts continus pour contrôler le flux d’informations en ligne, en approuvant la création d’une nouvelle commission chargée de lutter contre ce qu’il décrit comme l’ingérence étrangère et la désinformation.

Baptisée « Bouclier démocratique européen » , cette initiative est conçue comme une protection des processus démocratiques mais suscite de vives inquiétudes quant à la censure et aux abus. La création du comité s’aligne sur le programme politique de la Commission européenne pour 2024-2029 et devrait commencer ses activités l’année prochaine.

Lors d’une séance plénière à Strasbourg, la décision a reçu un large soutien, avec 441 membres votant pour, 178 contre et 34 abstentions.

Bien que cette mesure soit présentée comme une mesure visant à protéger la démocratie, les critiques se demandent depuis longtemps si des pouvoirs aussi étendus risquent d’étouffer les opinions dissidentes sous couvert de lutte contre la désinformation.

Le mandat du comité s’étend à l’examen des plateformes en ligne, du contenu généré par l’IA et des menaces dites « hybrides » – de vastes catégories qui pourraient potentiellement englober des discours politiques légitimes ou des récits alternatifs.

Composé de 33 membres, le comité ad hoc sur le bouclier démocratique européen sera en place pour un mandat de 12 mois. Sa composition, qui sera déterminée par les groupes politiques, sera annoncée fin janvier. Ses responsabilités incluent l’examen des lois existantes pour en identifier les faiblesses potentielles qui pourraient être exploitées et recommander des réformes. Cependant, les sceptiques pourraient faire valoir que cette approche pourrait conduire à une augmentation des contraintes réglementaires sur les plateformes numériques, ce qui soulèverait des questions sur la liberté d’expression et la transparence dans la prise de décision.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Italie inflige une amende à OpenAI pour violation des règles de confidentialité de ChatGPT

  • Le régulateur italien des données inflige une amende de 15 millions d’euros à OpenAI
  • L’entreprise estime que la décision est disproportionnée et va faire appel
  • Watchdog a brièvement banni ChatGPT l’année dernière
  • Open AI a reçu l’ordre de lancer une campagne médiatique sur l’utilisation des données de ChatGPT
Généré par IA

MILAN, 20 décembre (Reuters) – L’agence italienne de protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros (15,58 millions de dollars) au créateur de ChatGPT, OpenAI, après avoir clôturé une enquête sur l’utilisation de données personnelles par l’application d’intelligence artificielle générative.L’amende a été infligée après que l’autorité a constaté qu’OpenAI 

avait traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d’une base juridique adéquate et avait violé le principe de transparence et les obligations d’information connexes envers les utilisateurs ».

OpenAI a déclaré que la décision était « disproportionnée » et que la société allait faire appel.

L’enquête, qui a débuté en 2023, a également conclu que la société basée aux États-Unis ne disposait pas d’un système de vérification de l’âge adéquat pour empêcher les enfants de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a déclaré l’autorité.

L’organisme de surveillance italien a également ordonné à OpenAI de lancer une campagne de six mois dans les médias italiens pour sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs pour former les algorithmes.

L’autorité italienne, connue sous le nom de Garante, est l’un des régulateurs les plus proactifs de l’Union européenne dans l’évaluation de la conformité des plateformes d’IA avec le régime de confidentialité des données du bloc.

L’année dernière, l’utilisation de ChatGPT a été brièvement interdite en Italie en raison de violations présumées des règles de confidentialité de l’UE.

Le service a été réactivé après que Microsoft (MSFT.O), ouvre un nouvel onglet OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser leur consentement à l’utilisation de données personnelles pour former les algorithmes.« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de vingt fois les revenus que nous avons réalisés en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l’approche du Garante « porte atteinte aux ambitions de l’Italie en matière d’IA ».Le régulateur a déclaré que le montant de son amende de 15 millions d’euros avait été calculé en tenant compte de la « position coopérative » d’OpenAI, suggérant que l’amende aurait pu être encore plus élevée.

En vertu du règlement général sur la protection des données (RGPD) de l’UE, introduit en 2018, toute entreprise reconnue coupable d’avoir enfreint les règles s’expose à des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial.

Reportage d’Alessia Pe et Elvira Pollina Reportage supplémentaire de Supantha Mukherjee Montage d’Alvise Armellini et Frances Kerry

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Google propose des solutions pour mettre fin à son monopole sur les moteurs de recherche

Google, filiale d’Alphabet, a proposé de nouvelles limites aux accords de partage des revenus avec des entreprises, dont Apple, qui font du moteur de recherche de Google le moteur par défaut sur leurs appareils et navigateurs.

Généré par IA

Ces suggestions découlent de la bataille antitrust en cours entre le géant américain de la recherche et ses activités de recherche en ligne.

En août, le juge de district américain Amit Mehta a statué que Google avait illégalement écrasé sa concurrence dans le domaine des moteurs de recherche – une décision contre laquelle l’entreprise s’est engagée à faire appel.

Dans un dossier juridique soumis vendredi, Google a déclaré qu’il devrait être autorisé à continuer de conclure ces contrats avec d’autres sociétés tout en élargissant les options qu’il offre.

Ces options incluent la possibilité d’attribuer différents moteurs de recherche par défaut à différentes plates-formes et modes de navigation.

Les solutions proposées par Google prévoient également la possibilité pour les partenaires de changer leur fournisseur de recherche par défaut au moins tous les 12 mois.

Ces propositions contrastent fortement avec les mesures radicales suggérées le mois dernier par le ministère américain de la Justice (DOJ), qui recommandait au juge Mehta de forcer l’entreprise à cesser de conclure des contrats de partage des revenus.

Les avocats du ministère de la Justice ont également exigé que Google vende Chrome, le navigateur Web le plus populaire au monde.

Le moteur de recherche de Google représente environ 90 % de toutes les recherches en ligne dans le monde, selon la plateforme d’analyse du trafic Web Statcounter .

Dans un communiqué, Google a qualifié les mesures proposées par le DOJ de « trop vastes » et a déclaré que même ses propres contre-propositions, déposées en réponse à un délai imposé par le tribunal, auraient un coût pour ses partenaires.

Le juge Mehta devrait rendre une décision dans la phase de recours de cette affaire historique d’ici août, après un procès.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Une femme écope de la prison à vie pour avoir mutilé et tué une influenceuse dans le but de feindre sa propre mort

Une Allemande de 25 ans a écopé de la prison à vie pour avoir sauvagement assassiné une influenceuse qui lui ressemblait beaucoup afin de feindre sa propre mort, rapportent plusieurs médias allemands.

Photos tirées d’Instagram

Schahraban K. et son conjoint et complice Sheqir K. avaient tous deux été trouvés coupables du meurtre de la blogueuse beauté Khadidja O.

La victime a été ciblée par le couple en raison de sa très grande ressemblance avec Schahraban. Cette dernière avait planifié de défigurer le corps de sa sosie et de l’utiliser pour faire croire à sa propre famille que c’est elle qui était morte. Son but était ainsi de pouvoir se libérer de ses proches et commencer une nouvelle vie.

La tueuse a piégé sa victime en se faisant passer pour une fournisseuse de traitements de beauté. Elle l’a attirée dans son véhicule en lui promettant des services gratuits. Par la suite, Schahraban et Sheqir ont emmené Khadidja dans une forêt où ils l’ont poignardée à 56 reprises.

Les deux complices ont ensuite placé la dépouille dans le coffre de la voiture, afin de faire croire qu’il s’agissait du cadavre de Schahraban.

Les expertises médico-légales ont toutefois rapidement déjoué le subterfuge en dévoilant la véritable identité de la jeune femme décédée.

Au cours du procès, les avocats de la poursuite ont démontré comment l’accusée avait passé plusieurs semaines à chercher sa sosie sur Instagram. Elle aurait contacté au moins 24 femmes avant de cibler sa victime.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un important réseau pédopornographique international démantelé

Une centaine de personnes ont été interpellées. Les usagers de la messagerie accédaient à des images et vidéo mettant en scène des mineurs.

Généré par IA

Une centaine de personnes, 95 pour être précis, ont été interpellées en France dans le démantèlement d’un important réseau international de diffusion d’images pornographiques. Ces dernières mettaient en scène des mineurs sur la messagerie Signal, a indiqué jeudi la gendarmerie française.

Selon la gendarmerie, confirmant une information de BFM TV, plus de 16’000 personnes dans 130 pays participaient à des forums. Là, plus de 200 téraoctets d’images et de vidéos étaient mises à disposition des utilisateurs.

Le profil des interpellés varie: tous sont des hommes, âgés de 18 à 74 ans, auxquels il faut ajouter un mineur de 16 ans. Parmi eux, trente-six étaient déjà connus pour des infractions sexuelles à l’égard de mineurs ou consultation de sites mettant en scène des mineurs. Sept étaient déjà inscrits au fichier des auteurs d’infractions sexuelles ou violentes (Fijais).

Un adjoint d’un maire

La majorité des mis en cause, qui vivent principalement dans les régions Ile-de-France, Nouvelle-Aquitaine, Auvergne-Rhône-Alpes ou Grand-Est, a déjà reconnu les faits.

L’un d’entre eux exerçait la profession de directeur d’une association d’information aux jeunes, un autre était éducateur sportif. L’adjoint d’un maire est également impliqué.

Les perquisitions, menées du 9 au 19 décembre, ont permis de découvrir 375’000 photos et 156’000 vidéos tandis que 122 ordinateurs, 330 supports numériques et 152 smartphones ont été saisis, contenant 217 To de données.

L’enquête a débuté en novembre 2023 à l’occasion de la perquisition du téléphone d’un individu demeurant dans les Hauts-de-Seine mis en cause pour consultation habituelle d’images pédopornographiques.

Messagerie chiffrée

Les cyber-enquêteurs de la section de recherches (SR) de Versailles, avec le concours de l’Unité nationale cyber (UNC), ont ainsi découvert l’existence de plusieurs groupes de discussion sur la messagerie chiffrée Signal, dont le nom est sans équivoque sur leur objet.

«Ce qui se cache derrière ces forums, c’est toute cette galaxie de pédocriminels qui potentiellement peut être extrêmement dangereuse parce qu’elle peut être aussi prédatrice», a expliqué à l’AFP le colonel Hervé Petry de l’UNC.

«Aujourd’hui, avec les réseaux sociaux, il y a une augmentation de l’offre puisque les images et les vidéos peuvent s’échanger extrêmement facilement (…) Maintenant, on peut se connecter à n’importe quelle heure», selon lui

(AFP)

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

La loi britannique sur la censure en ligne pousse les petits sites Web à fermer

La loi britannique sur la sécurité en ligne oblige les petits sites comme Microcosm à fermer, invoquant une responsabilité et des risques disproportionnés en vertu de la nouvelle loi.

Généré par IA

La loi britannique de censure en ligne – l’  Online Safety Act  – qui entrera en vigueur à partir de mars prochain, fait déjà ses premières victimes.

Le nouveau paysage législatif du pays n’offre désormais aucune forme de sécurité à des centaines de petits sites Internet, y compris des forums à but non lucratif, qui devront fermer, incapables de se conformer à la loi – en particulier, face à ce que les rapports qualifient de « responsabilité personnelle disproportionnée ».

Les amendes s’élèvent à l’équivalent de 25 millions de dollars, tandis que la loi introduit également de nouvelles infractions pénales.

Plus tôt dans la semaine, l’Ofcom, l’organisme chargé de l’application de la loi, a publié des dizaines de mesures que les services en ligne sont censés mettre en œuvre d’ici le 16 mars, notamment la désignation d’une personne responsable – et comptable – de s’assurer qu’un site ou une plateforme est conforme.

La loi est présentée comme une nouvelle façon de lutter efficacement contre les contenus illégaux et, en particulier, de fournir de nouveaux moyens de garantir la sécurité des enfants en ligne, notamment par la vérification de l’âge (« age verification »).

Ses opposants la rejettent cependant, la considérant comme une « charte de censure » destinée à forcer les entreprises à intensifier la surveillance et la censure sur leurs plateformes, notamment en analysant les communications privées et en sapant le cryptage.

Mais une autre façon de nuire concrètement à l’écosystème en ligne, tout en cherchant de manière déclarative à prévenir les dommages, apparaît désormais avec l’exemple des petits sites communautaires, où ceux qui les gèrent ne sont pas disposés à assumer le risque massif lié à la fois aux amendes et à la responsabilité pénale au cas où ils ne parviendraient pas à « modérer » conformément aux dispositions de la loi.

La presse britannique  rapporte  l’un des premiers exemples de ce phénomène : le service d’hébergement gratuit à but non lucratif Microcosm et ses 300 sites – parmi lesquels des centres communautaires et des forums dédiés à des sujets comme le cyclisme et la technologie – fermeront en mars, incapables de répondre à une « responsabilité personnelle disproportionnée ».

« C’est trop vague et trop large et je ne veux pas prendre ce risque personnel », a déclaré Dee Kitchen de Microcosm.

Bien que l’impression générale soit que seuls les services aux grandes entreprises seront concernés par la loi, en réalité les exigences et les sanctions sont plus lourdes pour eux, mais l’Ofcom a clairement indiqué que les « très petites micro-entreprises » sont également soumises à la législation.

La décision de Microcosm illustre à quoi cela ressemblera dans la pratique, lorsque les sites – grands et petits – envisageront de trouver un hébergement à l’étranger, voire de quitter le marché britannique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Elon Musk donne son feu vert au parti d’extrême droite allemand à l’approche des élections

20 décembre (Reuters) – Le milliardaire américain Elon Musk, qui devrait rejoindre l’administration du président élu Donald Trump en tant que conseiller extérieur, s’est impliqué vendredi dans la campagne électorale allemande, qualifiant l’Alternative pour l’Allemagne (AfD) d’extrême droite de sauveur du pays.

Généré par IA

L’AfD est deuxième dans les sondages d’opinion et pourrait être en mesure de contrecarrer une majorité de centre-droit ou de centre-gauche, mais les principaux partis allemands, plus centristes, ont juré d’éviter tout soutien de l’AfD au niveau national.

La première puissance européenne devrait se prononcer le 23 février après l’effondrement du gouvernement de coalition de centre-gauche dirigé par le chancelier Olaf Scholz.

« Seule l’AfD peut sauver l’Allemagne », a écrit Musk dans un message publié sur sa plateforme de médias sociaux, X.Elon Musk, l’homme le plus riche du monde, a déjà exprimé son soutien à d’autres partis anti-immigration à travers l’Europe.

Le gouvernement allemand a déclaré avoir pris note de la publication de Musk mais a refusé de faire d’autres commentaires lors de sa conférence de presse habituelle.

Musk a republié un message de l’influenceuse allemande de droite Naomi Seibt qui critiquait Friedrich Merz , candidat à la chancellerie pour les conservateurs, confortablement en tête dans les sondages.

Matthias Miersch, secrétaire général des sociaux-démocrates de Scholz, a déclaré au média t-online que l’Allemagne n’avait pas besoin d’influences étrangères ni de « trumpisme », ajoutant : « Reste en dehors, Elon. »Musk avait déjà exprimé son soutien à l’AfD l’année dernière, lorsqu’il avait attaqué la gestion de l’immigration illégale par le gouvernement allemand .Le mois dernier, Musk a appelé au limogeage des juges italiens qui avaient mis en doute la légalité des mesures gouvernementales visant à prévenir l’immigration irrégulière.

Et cette semaine, Nigel Farage, chef du parti de droite Reform UK et ami de Trump, a publié une photo de lui et du trésorier de Reform UK rencontrant Musk à la résidence de Trump en Floride, et a déclaré qu’il était en pourparlers avec Musk au sujet d’un soutien financier.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

« Big Brother » ne se contente pas de regarder : il change le fonctionnement de votre cerveau

Chaque fois que vous marchez dans la rue, des yeux électroniques vous observent. Des systèmes de sécurité aux caméras de surveillance routière, la surveillance est omniprésente dans la société moderne. Pourtant, ces caméras pourraient faire plus que simplement enregistrer nos mouvements : selon une nouvelle étude qui s’intéresse à la psychologie de la surveillance, elles pourraient fondamentalement modifier la façon dont notre cerveau traite les informations visuelles.

Généré par IA

Alors que des recherches antérieures ont montré que les caméras de surveillance peuvent modifier notre comportement conscient – ​​nous rendant moins susceptibles de voler ou plus enclins à suivre les règles – une nouvelle étude publiée dans  Neuroscience of Consciousness  suggère qu’être surveillé affecte quelque chose de bien plus fondamental : la façon inconsciente dont notre cerveau perçoit le monde qui nous entoure.

« Nous avons trouvé des preuves directes que le fait d’être  surveillé de près par vidéosurveillance a un impact marqué sur une fonction intrinsèque et involontaire de la perception sensorielle humaine : la capacité à détecter consciemment un visage », explique le professeur associé Kiley Seymour, auteur principal de l’étude, dans un communiqué.

La surveillance à l’épreuve

L’équipe de recherche de l’Université de technologie de Sydney, dirigée par Seymour, a conçu une expérience ingénieuse pour tester l’effet de la surveillance sur notre traitement visuel inconscient. Ils ont recruté 54 étudiants de premier cycle et les ont divisés en deux groupes : un groupe a effectué une tâche visuelle tout en étant surveillé de près par plusieurs caméras de surveillance, tandis que le groupe témoin a effectué la même tâche sans la présence de caméras.

Le groupe surveillé a été préalablement informé du dispositif de surveillance, notamment d’une vidéo en direct d’eux-mêmes depuis la pièce adjacente, et a dû signer des formulaires de consentement supplémentaires reconnaissant qu’ils  seraient surveillés . Pour s’assurer que les participants ressentent pleinement le poids de la surveillance, des caméras ont été positionnées de manière à capturer tout leur corps, leur visage et même leurs mains pendant qu’ils effectuaient la tâche.

La tâche visuelle elle-même utilisait une technique astucieuse appelée suppression continue du flash (CFS), qui empêche temporairement les images montrées à un œil d’atteindre  la conscience  pendant que le cerveau les traite encore inconsciemment. Les participants ont vu des images différentes à travers chaque œil : un œil a vu des motifs colorés changeant rapidement, tandis que l’autre a vu des visages qui les regardaient directement ou qui les regardaient dans le vide.

Les « mécanismes de survie anciens » s’activent lorsqu’on les regarde

Les résultats ont été remarquables : « Les participants que nous avons surveillés sont devenus hyper conscients des stimuli faciaux presque une seconde plus vite que le groupe témoin. Cette amélioration perceptive s’est également produite sans que les participants ne s’en rendent compte », explique Seymour. Cela était vrai que les visages les regardaient directement ou non, bien que les deux groupes aient détecté les visages qui les regardaient directement plus rapidement dans l’ensemble.

Cette conscience accrue semble faire appel à des mécanismes de survie anciens. « Ce mécanisme a évolué pour nous permettre de détecter d’autres agents et menaces potentielles dans notre environnement, comme les prédateurs et les autres humains, et il semble être renforcé lorsque  nous sommes surveillés  par des caméras de surveillance », explique Seymour.

Il est important de noter que ce phénomène ne s’explique pas uniquement par le fait que les participants ont fait plus d’efforts ou ont été plus vigilants sous surveillance. Lorsque les chercheurs ont mené la même expérience en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes observés et non observés. L’amélioration était spécifique aux stimuli sociaux –  les visages  – suggérant que la surveillance exploite les circuits neuronaux fondamentaux qui ont évolué pour traiter les informations sociales.

Effets sur la santé mentale et la conscience

Ces résultats sont particulièrement pertinents pour la santé mentale. « Nous observons une hypersensibilité au regard dans des troubles de santé mentale comme  la psychose  et  le trouble d’anxiété sociale  , où les individus ont des croyances ou des préoccupations irrationnelles à l’idée d’être observés », note Seymour. Cela suggère que la surveillance pourrait interagir avec ces troubles d’une manière que nous ne comprenons pas encore entièrement.

Le plus troublant a peut-être été le décalage entre l’expérience consciente des participants et la réaction de leur cerveau. « Nous avons fait une découverte surprenante et troublante : même si les participants ont déclaré ne pas être préoccupés par le fait d’être surveillés, les effets de cette surveillance sur le traitement social de base étaient marqués, très significatifs et imperceptibles pour eux », révèle Seymour.

Ces résultats arrivent à un moment crucial de l’histoire de l’humanité, alors que nous sommes confrontés à des niveaux de surveillance technologique sans précédent. Des caméras de vidéosurveillance aux systèmes de reconnaissance faciale, en passant par les appareils de localisation et l’« Internet des objets », nos activités sont de plus en plus surveillées et enregistrées. L’étude suggère que cette observation constante pourrait nous affecter à un niveau plus profond qu’on ne le pensait jusqu’à présent, modifiant des processus perceptifs de base qui opèrent normalement en dehors de notre conscience.

Les implications vont au-delà  des préoccupations individuelles en matière de vie privée  et touchent à la santé mentale publique et aux manières subtiles dont la surveillance pourrait remodeler la cognition humaine et les interactions sociales. À mesure que la technologie de surveillance continue de progresser, notamment les neurotechnologies émergentes qui pourraient potentiellement surveiller notre activité mentale, la compréhension de ces effets inconscients devient de plus en plus cruciale.

À l’instar des participants à l’étude qui ont détecté les visages plus rapidement lorsqu’ils étaient surveillés, nous nous adaptons peut-être tous inconsciemment à notre monde de plus en plus surveillé, d’une manière que nous ne comprenons pas encore totalement. Big Brother, semble-t-il, ne se contente pas de nous observer : il change notre façon de voir le monde.

Résumé de l’article
Méthodologie

Les chercheurs ont utilisé une technique visuelle spécialisée appelée suppression continue du flash (CFS) où les participants regardent différentes images à travers chaque œil à l’aide d’un stéréoscope à miroir. Un œil voit un motif coloré qui change rapidement tandis que l’autre voit un visage qui regarde directement devant ou au loin. Le motif changeant empêche temporairement la conscience du visage, mais le cerveau le traite toujours inconsciemment. En mesurant la rapidité avec laquelle les participants prennent conscience de l’emplacement du visage (à gauche ou à droite du centre), les chercheurs peuvent évaluer l’efficacité avec laquelle leur système visuel traite cette information. L’étude a comparé deux groupes : l’un surveillé par plusieurs caméras (groupe expérimental) et l’autre sans caméra (groupe témoin).

Résultats

Le groupe observé a détecté les visages beaucoup plus rapidement que le groupe témoin, avec une différence de vitesse de détection de près d’une seconde complète. Cela s’est vérifié pour les visages en regard direct et en regard détourné, bien que les visages en regard direct aient été détectés plus rapidement par les deux groupes. Fait important, lorsque l’expérience a été répétée en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes, ce qui montre que l’effet est spécifique aux stimuli sociaux. Le groupe observé a également montré une plus grande précision dans la détection de l’emplacement des visages.

Limites

L’étude a utilisé un échantillon relativement petit d’étudiants de premier cycle, ce qui limite potentiellement la généralisabilité. La condition de surveillance utilisait plusieurs caméras de manière évidente, ce qui pourrait ne pas refléter parfaitement les situations de surveillance du monde réel où la surveillance est souvent plus subtile. De plus, l’étude n’a examiné que les effets à court terme de la surveillance, laissant sans réponse les questions sur les impacts à long terme.

Discussion et points à retenir

Cette étude révèle que la surveillance affecte non seulement le comportement conscient, mais aussi les processus perceptifs inconscients, notamment le traitement des informations sociales comme les visages. L’effet semble se produire en dehors de la conscience, car les participants n’ont rapporté qu’une légère sensation d’être observés malgré des changements significatifs dans le traitement visuel. Cela suggère que la surveillance pourrait avoir des impacts psychologiques plus profonds que ce que l’on pensait jusqu’à présent, avec des implications potentielles pour la santé mentale publique et l’interaction sociale dans des sociétés de plus en plus surveillées.

Financement et divulgations

L’article précise qu’aucun financement spécifique n’a été déclaré pour cette recherche et que les auteurs n’ont déclaré aucun conflit d’intérêt. L’étude a été approuvée par le Comité d’éthique humaine de l’Université Western Sydney.

Source :  StudyFinds

StudyFinds a pour objectif de trouver de nouvelles recherches qui s’adressent à un large public, sans tout le jargon scientifique. Les articles que nous publions sont des versions digestes et résumées de recherches qui ont pour but d’informer le lecteur et de susciter un débat civilisé et éclairé. Les articles de l’équipe StudyFinds sont assistés par l’IA, mais toujours soigneusement révisés et édités par un membre de l’équipe Study Finds. Lisez notre politique sur l’IA pour plus d’informations.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Entrée en vigueur des lois britanniques sur la censure en ligne

La Grande-Bretagne pourrait bientôt infliger aux géants des réseaux sociaux une amende pouvant atteindre 10 % de leurs revenus annuels s’ils ne suppriment pas les contenus illégaux

Généré par IA

La nouvelle loi britannique sur la censure en ligne est entrée en vigueur lundi, alors que le régulateur des télécommunications du pays a publié une liste de contenus que les plateformes de médias sociaux doivent supprimer pour éviter des amendes de plusieurs millions de livres.

L’Ofcom, l’organisme de surveillance des médias et des télécommunications du gouvernement britannique, a publié un ensemble de directives que les plateformes comme Meta, Google et TikTok doivent respecter d’ici mars, sous peine de sanctions en vertu de la loi sur la sécurité en ligne, adoptée en 2023.

Les directives énumèrent une série de 130 actes illégaux que ces plateformes doivent interdire et prévenir, notamment l’incitation au terrorisme, la traite des êtres humains et le partage de matériel d’abus sexuel sur mineur.

Est également interdite « l’incitation à la haine raciale » ou « la haine fondée sur la religion ou l’orientation sexuelle », qui, bien que mal définies, sont déjà illégales en vertu de la loi britannique.

Certaines infractions sont « complexes », a écrit l’Ofcom. « Elles peuvent concerner une série d’interactions entre utilisateurs, ou peuvent impliquer un comportement qui se déroule en partie hors ligne, ou peuvent impliquer de réfléchir à la nature, à l’identité ou à l’âge d’un ou plusieurs utilisateurs concernés. »

Une première version de la loi sur la sécurité en ligne comprenait une clause interdisant certains contenus « légaux mais nuisibles » . Cependant, ce passage a été retiré du projet de loi l’année dernière après que le ministre du Commerce et des Affaires de l’époque, Kemi Badenoch, s’est plaint qu’il s’agissait d’une « législation visant à blesser les sentiments ».

Néanmoins, le Premier ministre Keir Starmer aurait envisagé de réinsérer la clause controversée après qu’une vague d’émeutes anti-immigration et anti-islam a balayé le Royaume-Uni en août, mais a finalement décidé de ne pas le faire, selon un porte-parole de son bureau.

Les entreprises qui ne se conforment pas aux nouvelles règles de l’Ofcom s’exposent à une amende pouvant atteindre 10 % de leur chiffre d’affaires annuel mondial, jusqu’à un maximum de 18 millions de livres sterling (22,8 millions de dollars). En cas de récidive, les dirigeants pourraient être condamnés à des peines de prison, tandis que l’Ofcom pourrait demander une ordonnance du tribunal pour bloquer l’accès à une plateforme au Royaume-Uni.

Selon l’Ofcom, les règles s’appliqueront à plus de 100 000 entreprises du monde entier, des plus grandes plateformes de médias sociaux aux  « très petits » fournisseurs de divertissement, de rencontres, de jeux d’argent et d’autres services en ligne.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil