Lire entre les mensonges : un guide de reconnaissance des formes

Occultisme et mondialisme

La matrice du contrôle s’approfondit de jour en jour, mais l’éveil aussi. La question est : qu’est-ce qui se propage le plus vite : la programmation ou la prise de conscience ? Notre avenir en tant qu’espèce pourrait dépendre de la réponse.

10–15 minutes
Généré par IA

En 2019 , lorsque Avril Haines, directrice du renseignement national, a annoncé, lors de  l’exercice pandémique Event 201  , qu’ils allaient « inonder la zone de sources fiables », peu de gens ont compris cet aperçu d’un contrôle narratif coordonné. En quelques mois, nous avons pu le voir se dérouler en temps réel : messages unifiés sur toutes les plateformes, suppression de la dissidence et contrôle narratif coordonné qui a trompé une grande partie du monde.

Mais tout le monde n’a pas été dupé éternellement. Certains ont immédiatement compris le problème et ont remis en question tous les aspects du système dès le premier jour. D’autres ont pensé qu’il s’agissait simplement d’un gouvernement incompétent qui essayait de nous protéger. Beaucoup ont d’abord accepté le principe de précaution – mieux vaut prévenir que guérir. Mais à mesure que chaque échec politique pointait dans la même direction – vers plus de contrôle et moins d’intervention humaine –, il est devenu impossible d’ignorer ce schéma. Quiconque n’était pas complètement absorbé par le système a dû finalement faire face à son véritable objectif : non pas protéger la santé ou la sécurité, mais étendre le contrôle.

Une fois que vous avez identifié ce modèle de tromperie, deux questions devraient immédiatement surgir chaque fois que des sujets importants font la une des journaux : « Sur quoi mentent-ils ? » et « De quoi nous détournent-ils ? » Le modèle de tromperie coordonnée devient indéniable. Songez à la façon dont les médias ont passé trois ans à promouvoir les conspirations du Russiagate, provoquant une division sociale sans précédent tout en jetant les bases de ce qui allait devenir la plus grande opération psychologique de l’histoire. Aujourd’hui, alors que les médias nous inondent de reportages sur l’Ukraine, BlackRock se positionne pour tirer profit à la fois de la destruction et de la reconstruction. Le modèle devient indéniable une fois que vous l’avez vu : des crises fabriquées qui entraînent des « solutions » pré-planifiées qui élargissent toujours le contrôle institutionnel.

Les médias traditionnels fonctionnent sur la base d’une double tromperie : la désinformation et la manipulation. Les mêmes présentateurs qui nous ont vendu des armes de destruction massive en Irak, qui ont promu la « collusion russe » et qui ont insisté sur le fait que l’ordinateur portable de Hunter Biden était une « désinformation russe » occupent toujours les créneaux horaires de grande écoute. Tout comme nous le voyons avec la nomination de RFK Jr. au HHS, le schéma est cohérent :  des attaques coordonnées remplacent le débat de fond , des points de discussion identiques apparaissent sur tous les réseaux et des questions légitimes sont écartées par la diffamation plutôt que par des preuves. Se tromper systématiquement n’est pas un défaut, c’est une caractéristique. Leur rôle n’est pas d’informer mais de fabriquer le consentement.

Le modèle est cohérent : saturer les médias de spectacles émotionnels tout en faisant avancer les programmes institutionnels avec un minimum de contrôle. Comme apprendre à repérer un faux sourire ou à entendre une fausse note dans la musique, vous développez un instinct pour le timing :

Argent et pouvoir :

Contrôle médical :

Contrôle numérique :

À mesure que ces tromperies deviennent plus évidentes, différentes formes de résistance émergent. La recherche de la vérité prend différentes formes. Certains deviennent de grands experts dans des tromperies spécifiques : ils documentent  les succès précoces des traitements avec des médicaments réutilisés ,  découvrent les échecs des protocoles hospitaliers  ou  explorent l’impact des blessures causées par les vaccins . D’autres développent une perspective plus large pour voir comment les récits eux-mêmes sont conçus.

La brillante capacité de Walter Kirn à reconnaître les modèles nous plonge au cœur de notre réalité artificielle. Ses tweets  qui décortiquent la couverture du meurtre du PDG de United  montrent comment même les crimes violents sont désormais  présentés comme des spectacles de divertissement , avec  des arcs narratifs  et  des rebondissements narratifs . L’analyse de Kirn met en lumière une dimension essentielle du contrôle des médias : en transformant chaque crise en un récit de divertissement, ils détournent l’attention de questions plus profondes. Au lieu de se demander pourquoi les garde-fous institutionnels échouent ou qui en profite, le public est captivé par une indignation soigneusement scénarisée. Cette diversion délibérée garantit que les programmes institutionnels avancent sans examen.

Sa vision révèle comment les emballages de divertissement servent un système de contrôle plus vaste. Si chaque enquête requiert sa propre expertise, ce modèle de manipulation narrative se connecte à un réseau de tromperie plus vaste. Comme je l’ai exploré dans « The Information Factory » et « Engineering Reality », tout, de l’éducation à la médecine en passant par la monnaie elle-même, a été capturé par des systèmes conçus pour façonner non seulement nos choix, mais aussi notre perception même de la réalité.

Le plus révélateur est ce qu’ils ne cachent pas. Remarquez la rapidité avec laquelle les histoires disparaissent lorsqu’elles menacent les intérêts institutionnels. Vous souvenez-vous de la liste des clients d’Epstein ? De l’accaparement des terres de Maui ? Des blessures de plus en plus nombreuses causées par les vaccins ? Le silence en dit long. 

Prenons l’exemple des récents témoignages de lanceurs d’alerte qui ont révélé des inquiétudes de sécurité occultées chez Boeing, une entreprise depuis longtemps impliquée dans des affaires avec des organismes de réglementation et des contrats gouvernementaux.  Deux lanceurs d’alerte – tous deux d’anciens employés qui avaient donné l’alerte sur des problèmes de sécurité – sont morts dans des circonstances suspectes. La couverture médiatique de leur mort a disparu presque du jour au lendemain, malgré les profondes implications pour la sécurité publique et la responsabilité des entreprises. Ce schéma se répète dans d’innombrables cas où la responsabilité perturberait des structures de pouvoir bien ancrées, laissant des questions cruciales sans réponse et des récits étroitement contrôlés.

Ces décisions ne sont pas accidentelles : elles résultent de la propriété des médias, de l’influence des annonceurs et de la pression gouvernementale, garantissant que le récit reste étroitement contrôlé.

Mais ce qui est peut-être le plus frappant n’est pas la tromperie des médias en elle-même, mais la façon dont ils façonnent la réalité de leurs consommateurs. Observez avec quelle assurance ils répètent des phrases clairement conçues par des groupes de réflexion. Écoutez-les répéter comme des perroquets avec une conviction religieuse : « Le 6 janvier a été pire que le 11 septembre », « Faites confiance à la science », « La démocratie est sur le bulletin de vote » et, peut-être le mensonge le plus lourd de conséquences de l’histoire moderne, « Sûr et efficace ».

La  classe des cadres et des professionnels se révèle particulièrement sensible à cette programmation . Leur expertise devient une prison de statut : plus ils investissent dans l’approbation institutionnelle, plus ils défendent avec ferveur les discours institutionnels. Observez la rapidité avec laquelle un médecin qui remet en question la sécurité des vaccins perd son permis d’exercer, la rapidité avec laquelle un professeur qui remet en question l’idéologie du genre fait l’objet d’un contrôle, la rapidité avec laquelle un journaliste qui dépasse les bornes se retrouve sur la liste noire.

Le système garantit la conformité par le biais de la capture économique : votre prêt hypothécaire devient votre laisse, votre statut professionnel votre gardien de prison. Les mêmes avocats qui se targuent de leur esprit critique réprimeront agressivement toute remise en question des récits officiels. Le professeur qui enseigne à « remettre en question les structures du pouvoir » devient apoplectique lorsque ses étudiants remettent en question les sociétés pharmaceutiques.

La validation circulaire rend la programmation presque impénétrable :

  • Les médias citent des « experts »
  • Les experts citent des études évaluées par des pairs
  • Les études sont financées par l’industrie
  • L’industrie façonne la couverture médiatique
  • Les « vérificateurs de faits » citent le consensus médiatique
  • L’université applique les conclusions approuvées

Ce système auto-renforçant forme une boucle fermée parfaite :

Chaque élément valide les autres tout en excluant les informations extérieures. Essayez de trouver le point d’entrée de la vérité dans ce système fermé. La fierté des professionnels pour leur esprit critique devient ironiquement sombre : ils ont simplement confié leurs opinions à des « sources faisant autorité ».

Le plus troublant est la façon dont ils ont volontiers renoncé à leur souveraineté. Regardez-les s’y soumettre :

  • « Je suis la science » (traduction : j’attends des conclusions approuvées)
  • « Selon les experts » (traduction : je ne pense pas par moi-même)
  • « Les vérificateurs de faits disent » (traduction : je laisse les autres déterminer la vérité)
  • « Le consensus est » (traduction : je m’aligne sur le pouvoir)

Leur empathie devient une arme utilisée contre eux. Vous remettez en question le confinement ? Vous tuez grand-mère. Vous doutez de la chirurgie de transition pour les mineurs ? Vous provoquez des suicides. Vous résistez aux initiatives d’équité ? Vous perpétuez l’oppression. La programmation fonctionne en faisant en sorte que la résistance soit ressentie comme de la cruauté.

Quelque chose de remarquable se produit sous le bruit de surface : un véritable réveil qui défie les frontières politiques traditionnelles. On le voit dans les échanges subtils entre collègues lorsque les récits officiels mettent à mal la crédibilité. Dans le silence croissant lors des dîners lorsque les arguments de propagande tombent à plat. Dans les regards complices entre inconnus lorsque le théâtre de santé publique atteint de nouveaux sommets d’absurdité.

Il ne s’agit pas d’un mouvement au sens traditionnel du terme – et cela ne peut pas l’être, car les structures traditionnelles des mouvements sont vulnérables à l’infiltration, à la subversion et à la capture. Il s’agit plutôt d’une émergence spontanée de la reconnaissance de modèles. Un réveil distribué sans direction centrale ni organisation formelle. Ceux qui voient au-delà des modèles reconnaissent la formation de masse pour ce qu’elle est, tandis que ses sujets projettent leur propre programmation sur les autres, rejetant la reconnaissance de modèles comme des « théories du complot », « anti-science » ou d’autres étiquettes réflexives destinées à empêcher un examen authentique.

La vérité la plus dure à affronter n’est pas de reconnaître la programmation, mais de faire face à ce que cela signifie pour la conscience humaine et la société elle-même. Nous observons en temps réel des preuves montrant que la plupart des esprits humains peuvent être capturés et redirigés par des opérations psychologiques sophistiquées. Leurs pensées ne leur appartiennent pas, et pourtant ils mourraient pour défendre ce qu’ils ont été programmés à croire.

Il ne s’agit plus seulement d’une critique des médias, mais d’une question existentielle sur la conscience humaine et le libre arbitre. Que signifie le fait que la capacité d’une espèce à penser de manière indépendante puisse être si complètement détournée ? Que signifie le fait que l’empathie naturelle et les instincts moraux deviennent des armes de contrôle ? Que l’éducation et l’expertise réduisent réellement la résistance à la programmation ?

La programmation fonctionne parce qu’elle détourne les motivations humaines fondamentales :

  • Le besoin d’acceptation sociale (par exemple, le port du masque comme symbole visible de conformité)
  • Le désir d’être perçu comme bon/moral (par exemple, adopter des positions performatives sur des questions sociales sans compréhension plus approfondie)
  • L’instinct de faire confiance à l’autorité (par exemple, la confiance dans les responsables de la santé publique malgré les revirements politiques répétés)
  • La peur de l’ostracisme (par exemple, éviter la dissidence pour maintenir l’harmonie sociale)
  • Le confort du conformisme (par exemple, répéter des récits pour éviter la dissonance cognitive)
  • La dépendance au statut (par exemple, signaler sa conformité pour maintenir son statut professionnel ou social)

Chaque trait naturel de l’être humain devient une vulnérabilité à exploiter. Les plus instruits deviennent les plus programmables car leur addiction au statut est plus profonde. Leur « pensée critique » devient un script exécuté sur du matériel corrompu.

C’est là le principal défi de notre époque : la conscience humaine peut-elle évoluer plus vite que les systèmes conçus pour la détourner ? La reconnaissance des modèles et la prise de conscience peuvent-elles se propager plus vite que le consensus fabriqué ? Un nombre suffisant de personnes peuvent-elles apprendre à lire entre les mensonges avant que la programmation ne soit achevée ?

Les enjeux ne pourraient être plus importants. Il ne s’agit pas seulement de politique ou d’éducation aux médias, mais de l’avenir de la conscience humaine elle-même. La capacité de notre espèce à penser de manière indépendante dépendra peut-être de ceux qui peuvent encore y accéder et qui aideront les autres à se libérer de ce sort.

La matrice du contrôle s’approfondit de jour en jour, mais l’éveil aussi. La question est : qu’est-ce qui se propage le plus vite : la programmation ou la prise de conscience ? Notre avenir en tant qu’espèce pourrait dépendre de la réponse.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Assemblée générale des Nations Unies adopte un traité controversé sur la cybercriminalité, en pleine critique des risques de censure et de surveillance

Le traité mondial sur la cybercriminalité fait l’objet d’un examen minutieux en raison de ses garanties en matière de droits de l’homme et de l’utilisation abusive potentielle des pouvoirs transfrontaliers.

2–3 minutes
Généré par IA

Comme prévu , même si les opposants ont averti que la Convention des Nations Unies contre la cybercriminalité devait avoir une portée plus restreinte, de solides garanties en matière de droits de l’homme et être définie plus clairement afin d’éviter les abus, l’Assemblée générale des Nations Unies vient d’adopter les documents, après cinq ans de querelles entre diverses parties prenantes.

Il appartient désormais aux États membres de l’ONU de signer, puis de ratifier, le traité qui entrera en vigueur trois mois après que le 40e pays l’aura fait.

La bureaucratie de l’ONU se réjouit de cette évolution, saluant la convention comme un traité mondial « historique » et « marquant » qui améliorera la coopération transfrontalière contre la cybercriminalité et les menaces numériques.

Mais les critiques affirment que la liberté d’expression et les droits de l’homme pourraient être victimes du traité, étant donné que les différents membres de l’ONU traitent les droits de l’homme et la vie privée de manières très différentes, alors que le traité « normalise » en quelque sorte les pouvoirs d’enquête des forces de l’ordre au-delà des frontières.

Certains ont beaucoup insisté sur la manière dont les pays « autoritaires » pourraient abuser de ce nouvel outil destiné à lutter contre la cybercriminalité – mais en réalité, cette préoccupation s’applique à tout pays qui finirait par ratifier le traité.

Un autre point de critique a été que les membres de l’ONU disposent déjà individuellement de lois qui traitent des mêmes questions, ce qui rend la convention superflue – à moins qu’elle ne vise à étendre certains de ces pouvoirs autoritaires aux pays qui n’en ont pas officiellement et ne peuvent pas les adopter directement chez eux pour des raisons politiques.

Étant donné que l’Assemblée générale de l’ONU a adopté la résolution sans vote – après que le texte ait été préalablement approuvé par les négociateurs – on ne sait pas encore combien de pays pourraient la signer l’année prochaine et ratifier ce qui deviendrait alors un document juridiquement contraignant.

Dans le même temps, un porte-parole du secrétaire général de l’ONU, Antonio Guterres, a qualifié le traité de « démonstration de multilatéralisme ».

Alors que les opposants voient un potentiel de pratiques antidémocratiques d’application de la loi qui déborderaient les frontières souveraines, les représentants de l’ONU parlent d’une « plateforme de coopération sans précédent » qui permettra aux agences d’échanger des preuves, de créer un cyberespace sûr et de protéger les victimes de crimes tels que les abus sexuels sur mineurs, les escroqueries et le blanchiment d’argent.

Et ils affirment que tout cela sera réalisé « tout en préservant les droits de l’homme en ligne ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Allemagne utilise l’attaque du marché de Noël de Magdebourg pour justifier l’expansion de la surveillance biométrique

L’Allemagne débat de la surveillance biométrique après l’attaque meurtrière de Magdebourg, à l’approche des élections et alors que les lois sur la confidentialité des données remettent en cause les nouvelles propositions.

2–3 minutes
Surveillance biométrique
Généré par IA

Les autorités allemandes sortantes semblent utiliser l’attaque meurtrière d’un marché de Noël, perpétrée par un ressortissant saoudien dans la ville de Magdebourg, pour pousser à une surveillance accrue, notamment en introduisant de nouveaux systèmes basés sur la biométrie.

La ministre de l’Intérieur Nancy Faeser , qui s’est retrouvée à plusieurs reprises au centre de la censure et de controverses politiques , est à l’origine de la proposition visant à donner de nouveaux pouvoirs aux forces de l’ordre.

Cependant, cela peut être vu comme une tentative d’apaiser les critiques sur les capacités du pays en matière de sécurité et de renseignement, supervisées au cours des trois dernières années par la coalition au pouvoir dont le parti de Faeser était membre, et qui s’est récemment effondrée.

Alors que des élections fédérales sont prévues pour février, la volonté de modifier rapidement la législation relative à la sécurité peut également être un outil de campagne utile, et c’est peut-être la raison pour laquelle certains grands partis, désormais en concurrence avec les sociaux-démocrates de Faeser, ont signalé qu’ils ne soutenaient pas la proposition.

L’un des membres de la coalition encore techniquement au pouvoir, le Parti libéral-démocrate (FDP), s’est prononcé contre cette idée et, en fait, selon certaines informations, l’a « bloquée ».

La proposition de campagne de Faeser intervient dans le contexte où sa propre responsabilité est remise en question par l’opposition à la suite de l’attaque, car il a été confirmé que l’Office fédéral des migrations et des réfugiés a reçu au cours de l’année écoulée un avertissement concernant l’agresseur présumé, mais l’a apparemment ignoré.

En proposant des mesures qui vont à l’encontre de l’engagement précédent de la coalition tripartite de ne pas déployer de surveillance biométrique, le débat sur l’état du système de sécurité en Allemagne peut être déplacé de la responsabilité du gouvernement vers le renforcement de l’État policier.

Et comme ce n’est pas la première tentative d’adopter des mesures qui créeraient des capacités de surveillance similaires – une autre a eu lieu en octobre, après une attaque au couteau –, selon qui formera le prochain gouvernement, la proposition pourrait s’avérer utile à l’avenir.

Outre les débats partisans et la rhétorique politique en amont des élections, ce qui fait obstacle à de tels changements dans la loi sur la police fédérale, ce sont les règles de protection des données propres à l’Allemagne, mais aussi le RGPD de l’UE.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Les détracteurs d’Elon Musk se voient retirer leur badge de vérification après avoir publiquement défié le milliardaire : « Les premières étapes de la censure »

Plusieurs critiques conservateurs du porte-parole du milliardaire Trump, Elon Musk, se sont vu retirer leurs badges de vérification sur X après avoir publiquement contesté la position de Musk sur l’immigration.

3–5 minutes
Généré par IA

Laura Loomer , alliée de Trump, Gavin Wax , président du New York Young Republican Club, Owen Shroyer, animateur d’InfoWars, et le ConservativePAC pro-Trump ont tous été déchus de leurs badges de vérification après avoir critiqué les remarques controversées de Musk sur les travailleurs américains et les détenteurs de visas H-1B étrangers.

« [Musk] a retiré ma coche bleue sur X parce que j’ai osé remettre en question son soutien aux visas H1B, le remplacement des travailleurs américains du secteur technologique par des immigrants indiens, et j’ai remis en question sa relation avec la Chine », a écrit Loomer dans un message sur le réseau social X de Musk, anciennement connu sous le nom de Twitter.

Elle a continué :

On dirait qu’Elon Musk va me faire taire parce que je soutiens les politiques d’immigration originales de Trump.

J’ai toujours été un partisan de l’Amérique d’abord et un fervent partisan du président Trump. Je crois que les promesses faites doivent être tenues. Donald Trump a promis de supprimer le programme de visa H1B et je soutiens sa politique. Aujourd’hui, en tant que l’un des plus grands partisans de Trump, je suis réduit au silence par un milliardaire de la technologie pour avoir simplement remis en question l’oligarchie technologique.

Elon a décidé de riposter en supprimant mon chèque bleu et en me démonétisant.

Je suppose qu’il ne croit pas vraiment à la liberté d’expression après tout.

Loomer a terminé son message avec un lien vers Truth Social, le réseau social du président élu Donald Trump .

Alors que plusieurs alliés de Musk ont ​​affirmé que Loomer avait été déchue de sa vérification pour avoir changé sa photo, Loomer a rejeté ces allégations et a qualifié cette mesure de « représailles ».

En réponse à la suggestion selon laquelle sa vérification de compte avait été supprimée pour une raison sans rapport avec le sujet, Loomer a écrit : « Je veux dire, juste après que @elonmusk m’a traité de troll aujourd’hui, la vérification de mon compte a été supprimée, mes abonnements ont été désactivés et je n’ai plus pu acheter de compte premium même si je payais déjà pour le premium. Clairement des représailles. »

Wax – l’un des critiques les plus virulents de la position d’Elon Musk sur l’immigration par visa H-1B – s’est également vu retirer son badge de vérification à peu près au même moment jeudi soir.

« Mon badge de vérification est en cours de révision. Bizarre ! Cela n’a rien changé », a-t-il annoncé . « C’est insensé que les chèques bleus soient retirés des comptes qui ont critiqué haut et fort le racket du H1B. C’est horrible. J’ai soutenu Elon et X. Tous ceux qui étaient au gala @NYYRC peuvent attester que j’ai consacré une grande partie de mon discours à faire l’éloge d’Elon. Triste ! »

Dans un autre post, Wax a plaisanté : « Bon, laissez-moi essayer et voir si je récupère mon badge : les Américains sont stupides et paresseux et n’ont rien créé. L’Inde est une superpuissance et possède les talents les plus intelligents et les meilleurs que le monde ait jamais vus. L’Amérique a besoin d’un milliard de nouveaux migrants pour nous apporter les fruits de la civilisation. Nous sommes stupides et devons nous repentir ! »

Après avoir été déchu de son propre badge de vérification, Shroyer a exprimé son inquiétude quant à « la situation actuelle de censure » sur la plateforme de Musk.

« Cela ressemble aux prémices de la censure sur X. Cela ressemble à un début de censure sur X », a-t-il averti.

Plusieurs des comptes concernés semblent être affiliés au ConservativePAC pro-Trump, qui a également exprimé son opposition aux remarques de Musk sur l’immigration.

« Tous nos influenceurs ont désormais perdu leur statut de vérification, ainsi que notre propre page. Notre marque n’a rien fait », a protesté le PAC . « Nous nous sommes prononcés contre les visas HB1 et il semble que @elonmusk nous ait intentionnellement fermés ? Est-ce le nouveau statu quo de la plateforme de médias sociaux « la plus libre » d’Amérique ? »

Un autre membre de ConservativePAC, Preston Parra , a tweeté : « Waouh, @elonmusk vient de retirer à toute notre organisation ses badges et son statut d’organisation vérifiée. J’imagine que c’est ce que l’on obtient quand on remet les clés à un traître autiste, avide de pouvoir et égocentrique envers son pays. Très pathétique, X craint ! »

Elon Musk et son coprésident du Département de l’efficacité gouvernementale (DOGE), Vivek Ramaswamy, ont tous deux reçu des réactions négatives jeudi pour avoir soutenu l’embauche de travailleurs étrangers titulaires de visas H-1B au détriment des Américains locaux.

Elon Musk a ensuite creusé encore plus profondément jeudi soir après avoir approuvé un message suggérant que les Américains étaient trop « retardés » pour être embauchés pour des emplois qualifiés.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport du Congrès souligne comment le gouvernement fédéral utilise le développement de l’IA comme une arme pour la CENSURE

4–6 minutes
Généré par IA

  • Un rapport avertit que le gouvernement fédéral fait pression pour que l’IA développe des outils destinés à supprimer du contenu sur Internet.
  • Le rapport met en évidence les initiatives gouvernementales visant à développer des outils d’IA pour la censure, souvent déguisés en lutte contre la « désinformation ».
  • Le comité demande l’interdiction du financement gouvernemental de la recherche sur l’IA liée à la censure et de la collaboration avec des entités étrangères sur la réglementation de l’IA qui conduit à la censure.
  • Les entreprises d’IA du secteur privé s’alignent désormais sur les demandes du gouvernement en matière de développement de l’IA, notamment en utilisant l’IA pour les opérations de cybersécurité et de renseignement.

Le rapport récemment publié par le sous-comité judiciaire de la Chambre des représentants sur la militarisation du gouvernement fédéral révèle que l’administration sortante du président Joe Biden et de la vice-présidente Kamala Harris a tenté de façonner le développement de l’intelligence artificielle pour permettre une censure plus efficace du contenu en ligne .

Ces dernières années, les États-Unis et d’autres entités internationales comme le Canada, le Royaume-Uni et l’Union européenne ont considéré l’émergence de l’intelligence artificielle comme une menace. Mais le rapport du sous-comité indique que le véritable problème ne réside pas dans l’intelligence artificielle, mais dans les efforts déployés par les gouvernements pour l’utiliser afin de mieux réprimer la liberté d’expression sur Internet.

Le rapport, intitulé « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression », met en évidence la tendance alarmante des gouvernements et des tiers à financer, développer et déployer l’IA pour contrôler le discours en ligne . Cette volonté d’utiliser l’IA comme arme de censure a suscité de graves inquiétudes quant à l’avenir de la liberté d’expression et des libertés numériques. (Article connexe :  L’ancien PDG de Google prévient que l’IA représente une menace existentielle imminente .)

Le rapport soutient que la principale raison de l’inquiétude suscitée par le rôle de l’IA dans la diffusion de la « désinformation » est la volonté du gouvernement d’exploiter cette technologie à des fins de censure. Selon le comité, l’administration Biden-Harris a fait particulièrement pression sur les développeurs d’IA pour qu’ils intègrent des fonctions de censure dans leurs modèles.

Le rapport souligne qu’au lieu de s’attaquer aux problèmes sous-jacents de la désinformation, le gouvernement se concentre davantage sur la création d’outils permettant de censurer rapidement et efficacement les contenus. Cette approche, selon le comité, risque d’étouffer la liberté d’expression et de museler les voix dissidentes en ligne.

Selon le rapport, le gouvernement a pris plusieurs mesures directes pour réglementer le développement de l’IA et l’utiliser à son avantage politique.

La National Science Foundation a par exemple octroyé des subventions pour développer des outils d’intelligence artificielle destinés à « lutter contre la désinformation ». Cependant, le comité prévient que ces initiatives sont souvent des tentatives à peine voilées de contrôler le discours en ligne d’une manière qui correspond au programme actuel de l’administration.

Le rapport souligne que le gouvernement doit s’abstenir d’influencer les décisions privées en matière d’algorithmes et de bases de données en lien avec la « désinformation » ou les « préjugés ». Il appelle également à interdire le financement public de recherches liées à la censure et la collaboration avec des entités étrangères sur la réglementation de l’IA qui mènent à la censure.

Le secteur privé s’aligne sur les objectifs du gouvernement en matière de développement de l’IA

L’un des développements clés mis en évidence dans le rapport est la récente nomination du général de l’armée américaine à la retraite Paul Nakasone au conseil d’administration d’OpenAI. Nakasone est connu pour son précédent rôle à la tête du Cyber ​​Command du ministère de la Défense  et pour son expertise en matière de cybersécurité et d’opérations de renseignement.

Nakasone conseillera désormais OpenAI en matière de sécurité et de sûreté, et sa nomination est considérée comme un changement potentiel dans les priorités de l’entreprise vers un alignement sur les intérêts gouvernementaux et militaro-industriels.

Le rapport souligne que cette évolution s’inscrit dans une tendance plus large selon laquelle les géants de la technologie comme Amazon, Google et Microsoft s’alignent de plus en plus sur les programmes gouvernementaux et militaires sous couvert de « sécurité ». En conséquence, les entreprises qui promettaient autrefois de démocratiser l’information sont devenues des outils de surveillance et de contrôle.

Le rapport met en garde contre le fait que les systèmes d’intelligence artificielle avancés, initialement développés à des fins défensives, pourraient évoluer vers des outils de surveillance de masse. Il pourrait s’agir de surveiller les activités en ligne des citoyens, leurs communications, voire de prédire leurs comportements sous prétexte de lutter contre le terrorisme et les cybermenaces.

L’intelligence artificielle étant désormais conçue pour analyser de vastes quantités de données, le potentiel de ces outils à façonner le discours public est réel. Les critiques affirment que ces développements pourraient avoir un effet dissuasif sur la liberté d’expression, les gens hésitant à exprimer leurs opinions de peur d’être qualifiés de « mésinformation » ou de « désinformation ».

Dans son rapport, le sous-comité souligne que si l’IA pouvait se développer librement, elle pourrait accroître la capacité des Américains à créer des connaissances et à s’exprimer. Cependant, la trajectoire actuelle suggère que l’IA pourrait être déformée pour servir les intérêts de ceux qui sont au pouvoir, plutôt que pour renforcer les libertés individuelles.

Les sources incluent :

ReclaimTheNet.com

Newsweek.com

Brighteon.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Ofcom britannique va imposer la vérification de l’âge à l’aide de la reconnaissance faciale en vertu de la loi sur la « sécurité » en ligne

Cette initiative pourrait créer un précédent mondial en matière de reconnaissance faciale dans la vérification de l’âge en ligne.

Généré par IA

L’Ofcom, l’organisme de régulation des communications du Royaume-Uni, publiera en janvier les exigences que les plateformes en ligne devront respecter pour appliquer la vérification de l’âge, qui devraient être « extrêmement précises ».

À en juger par les déclarations faites aujourd’hui par Jon Higham, directeur de la politique de sécurité en ligne de l’Ofcom, la méthode impliquera un certain type de reconnaissance faciale.

Le résultat pourrait être le blocage de « millions » de mineurs, alors que cela se produit en conséquence de la loi controversée sur la censure en ligne du pays, l’ Online Safety Act.

Auparavant, le secrétaire d’État à la Science, à l’Innovation et à la Technologie, Peter Kyle, avait déclaré qu’à moins que les entreprises technologiques « n’améliorent » la vérification de l’âge, le Royaume-Uni pourrait décider d’interdire les utilisateurs de moins de 16 ans des réseaux sociaux.

Higham a déclaré dans une interview que les entreprises derrière les plateformes devront mettre en œuvre une technologie extrêmement précise et efficace et a mentionné que l’estimation de l’âge du visage était « assez bonne » pour deviner si un utilisateur est un enfant ou un adulte.

Le rapport n’explique pas comment fonctionneront les vérifications d’âge prévues, mais les entreprises comme Yoti qui vendent ce type de service demandent aux utilisateurs de prendre des selfies – cela peut être fait en temps réel avec l’outil de l’entreprise ou l’image peut être envoyée à son API.

À partir de là, l’IA est utilisée pour analyser un visage, évaluer l’âge et effectuer un contrôle d’activité. Cette méthode est présentée comme une meilleure méthode (c’est-à-dire moins invasive pour la vie privée) pour déterminer l’âge d’un utilisateur que la présentation d’une pièce d’identité délivrée par le gouvernement sur les sites de réseaux sociaux.

Toutefois, les utilisateurs doivent faire confiance à ceux qui effectuent l’estimation de l’âge basée sur la biométrie pour ne pas stocker les images de leurs visages et les supprimer immédiatement.

Les entreprises technologiques qui enfreignent les règles de l’Online Safety Act devront payer des amendes considérables, pouvant aller jusqu’à 10 % du chiffre d’affaires mondial, et si ces infractions persistent, leurs dirigeants pourraient passer jusqu’à deux ans en prison.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Le Parlement européen approuve la création d’un comité pour lutter contre la « désinformation » en ligne

Le bouclier démocratique européen brouillera la frontière entre la lutte contre la désinformation et le contrôle de la liberté d’expression.

Généré par IA

Le Parlement européen a franchi une nouvelle étape dans ses efforts continus pour contrôler le flux d’informations en ligne, en approuvant la création d’une nouvelle commission chargée de lutter contre ce qu’il décrit comme l’ingérence étrangère et la désinformation.

Baptisée « Bouclier démocratique européen » , cette initiative est conçue comme une protection des processus démocratiques mais suscite de vives inquiétudes quant à la censure et aux abus. La création du comité s’aligne sur le programme politique de la Commission européenne pour 2024-2029 et devrait commencer ses activités l’année prochaine.

Lors d’une séance plénière à Strasbourg, la décision a reçu un large soutien, avec 441 membres votant pour, 178 contre et 34 abstentions.

Bien que cette mesure soit présentée comme une mesure visant à protéger la démocratie, les critiques se demandent depuis longtemps si des pouvoirs aussi étendus risquent d’étouffer les opinions dissidentes sous couvert de lutte contre la désinformation.

Le mandat du comité s’étend à l’examen des plateformes en ligne, du contenu généré par l’IA et des menaces dites « hybrides » – de vastes catégories qui pourraient potentiellement englober des discours politiques légitimes ou des récits alternatifs.

Composé de 33 membres, le comité ad hoc sur le bouclier démocratique européen sera en place pour un mandat de 12 mois. Sa composition, qui sera déterminée par les groupes politiques, sera annoncée fin janvier. Ses responsabilités incluent l’examen des lois existantes pour en identifier les faiblesses potentielles qui pourraient être exploitées et recommander des réformes. Cependant, les sceptiques pourraient faire valoir que cette approche pourrait conduire à une augmentation des contraintes réglementaires sur les plateformes numériques, ce qui soulèverait des questions sur la liberté d’expression et la transparence dans la prise de décision.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Italie inflige une amende à OpenAI pour violation des règles de confidentialité de ChatGPT

  • Le régulateur italien des données inflige une amende de 15 millions d’euros à OpenAI
  • L’entreprise estime que la décision est disproportionnée et va faire appel
  • Watchdog a brièvement banni ChatGPT l’année dernière
  • Open AI a reçu l’ordre de lancer une campagne médiatique sur l’utilisation des données de ChatGPT
Généré par IA

MILAN, 20 décembre (Reuters) – L’agence italienne de protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros (15,58 millions de dollars) au créateur de ChatGPT, OpenAI, après avoir clôturé une enquête sur l’utilisation de données personnelles par l’application d’intelligence artificielle générative.L’amende a été infligée après que l’autorité a constaté qu’OpenAI 

avait traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d’une base juridique adéquate et avait violé le principe de transparence et les obligations d’information connexes envers les utilisateurs ».

OpenAI a déclaré que la décision était « disproportionnée » et que la société allait faire appel.

L’enquête, qui a débuté en 2023, a également conclu que la société basée aux États-Unis ne disposait pas d’un système de vérification de l’âge adéquat pour empêcher les enfants de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a déclaré l’autorité.

L’organisme de surveillance italien a également ordonné à OpenAI de lancer une campagne de six mois dans les médias italiens pour sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs pour former les algorithmes.

L’autorité italienne, connue sous le nom de Garante, est l’un des régulateurs les plus proactifs de l’Union européenne dans l’évaluation de la conformité des plateformes d’IA avec le régime de confidentialité des données du bloc.

L’année dernière, l’utilisation de ChatGPT a été brièvement interdite en Italie en raison de violations présumées des règles de confidentialité de l’UE.

Le service a été réactivé après que Microsoft (MSFT.O), ouvre un nouvel onglet OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser leur consentement à l’utilisation de données personnelles pour former les algorithmes.« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de vingt fois les revenus que nous avons réalisés en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l’approche du Garante « porte atteinte aux ambitions de l’Italie en matière d’IA ».Le régulateur a déclaré que le montant de son amende de 15 millions d’euros avait été calculé en tenant compte de la « position coopérative » d’OpenAI, suggérant que l’amende aurait pu être encore plus élevée.

En vertu du règlement général sur la protection des données (RGPD) de l’UE, introduit en 2018, toute entreprise reconnue coupable d’avoir enfreint les règles s’expose à des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial.

Reportage d’Alessia Pe et Elvira Pollina Reportage supplémentaire de Supantha Mukherjee Montage d’Alvise Armellini et Frances Kerry

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Google propose des solutions pour mettre fin à son monopole sur les moteurs de recherche

Google, filiale d’Alphabet, a proposé de nouvelles limites aux accords de partage des revenus avec des entreprises, dont Apple, qui font du moteur de recherche de Google le moteur par défaut sur leurs appareils et navigateurs.

Généré par IA

Ces suggestions découlent de la bataille antitrust en cours entre le géant américain de la recherche et ses activités de recherche en ligne.

En août, le juge de district américain Amit Mehta a statué que Google avait illégalement écrasé sa concurrence dans le domaine des moteurs de recherche – une décision contre laquelle l’entreprise s’est engagée à faire appel.

Dans un dossier juridique soumis vendredi, Google a déclaré qu’il devrait être autorisé à continuer de conclure ces contrats avec d’autres sociétés tout en élargissant les options qu’il offre.

Ces options incluent la possibilité d’attribuer différents moteurs de recherche par défaut à différentes plates-formes et modes de navigation.

Les solutions proposées par Google prévoient également la possibilité pour les partenaires de changer leur fournisseur de recherche par défaut au moins tous les 12 mois.

Ces propositions contrastent fortement avec les mesures radicales suggérées le mois dernier par le ministère américain de la Justice (DOJ), qui recommandait au juge Mehta de forcer l’entreprise à cesser de conclure des contrats de partage des revenus.

Les avocats du ministère de la Justice ont également exigé que Google vende Chrome, le navigateur Web le plus populaire au monde.

Le moteur de recherche de Google représente environ 90 % de toutes les recherches en ligne dans le monde, selon la plateforme d’analyse du trafic Web Statcounter .

Dans un communiqué, Google a qualifié les mesures proposées par le DOJ de « trop vastes » et a déclaré que même ses propres contre-propositions, déposées en réponse à un délai imposé par le tribunal, auraient un coût pour ses partenaires.

Le juge Mehta devrait rendre une décision dans la phase de recours de cette affaire historique d’ici août, après un procès.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

La loi britannique sur la censure en ligne pousse les petits sites Web à fermer

La loi britannique sur la sécurité en ligne oblige les petits sites comme Microcosm à fermer, invoquant une responsabilité et des risques disproportionnés en vertu de la nouvelle loi.

Généré par IA

La loi britannique de censure en ligne – l’  Online Safety Act  – qui entrera en vigueur à partir de mars prochain, fait déjà ses premières victimes.

Le nouveau paysage législatif du pays n’offre désormais aucune forme de sécurité à des centaines de petits sites Internet, y compris des forums à but non lucratif, qui devront fermer, incapables de se conformer à la loi – en particulier, face à ce que les rapports qualifient de « responsabilité personnelle disproportionnée ».

Les amendes s’élèvent à l’équivalent de 25 millions de dollars, tandis que la loi introduit également de nouvelles infractions pénales.

Plus tôt dans la semaine, l’Ofcom, l’organisme chargé de l’application de la loi, a publié des dizaines de mesures que les services en ligne sont censés mettre en œuvre d’ici le 16 mars, notamment la désignation d’une personne responsable – et comptable – de s’assurer qu’un site ou une plateforme est conforme.

La loi est présentée comme une nouvelle façon de lutter efficacement contre les contenus illégaux et, en particulier, de fournir de nouveaux moyens de garantir la sécurité des enfants en ligne, notamment par la vérification de l’âge (« age verification »).

Ses opposants la rejettent cependant, la considérant comme une « charte de censure » destinée à forcer les entreprises à intensifier la surveillance et la censure sur leurs plateformes, notamment en analysant les communications privées et en sapant le cryptage.

Mais une autre façon de nuire concrètement à l’écosystème en ligne, tout en cherchant de manière déclarative à prévenir les dommages, apparaît désormais avec l’exemple des petits sites communautaires, où ceux qui les gèrent ne sont pas disposés à assumer le risque massif lié à la fois aux amendes et à la responsabilité pénale au cas où ils ne parviendraient pas à « modérer » conformément aux dispositions de la loi.

La presse britannique  rapporte  l’un des premiers exemples de ce phénomène : le service d’hébergement gratuit à but non lucratif Microcosm et ses 300 sites – parmi lesquels des centres communautaires et des forums dédiés à des sujets comme le cyclisme et la technologie – fermeront en mars, incapables de répondre à une « responsabilité personnelle disproportionnée ».

« C’est trop vague et trop large et je ne veux pas prendre ce risque personnel », a déclaré Dee Kitchen de Microcosm.

Bien que l’impression générale soit que seuls les services aux grandes entreprises seront concernés par la loi, en réalité les exigences et les sanctions sont plus lourdes pour eux, mais l’Ofcom a clairement indiqué que les « très petites micro-entreprises » sont également soumises à la législation.

La décision de Microcosm illustre à quoi cela ressemblera dans la pratique, lorsque les sites – grands et petits – envisageront de trouver un hébergement à l’étranger, voire de quitter le marché britannique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

« Big Brother » ne se contente pas de regarder : il change le fonctionnement de votre cerveau

Chaque fois que vous marchez dans la rue, des yeux électroniques vous observent. Des systèmes de sécurité aux caméras de surveillance routière, la surveillance est omniprésente dans la société moderne. Pourtant, ces caméras pourraient faire plus que simplement enregistrer nos mouvements : selon une nouvelle étude qui s’intéresse à la psychologie de la surveillance, elles pourraient fondamentalement modifier la façon dont notre cerveau traite les informations visuelles.

Généré par IA

Alors que des recherches antérieures ont montré que les caméras de surveillance peuvent modifier notre comportement conscient – ​​nous rendant moins susceptibles de voler ou plus enclins à suivre les règles – une nouvelle étude publiée dans  Neuroscience of Consciousness  suggère qu’être surveillé affecte quelque chose de bien plus fondamental : la façon inconsciente dont notre cerveau perçoit le monde qui nous entoure.

« Nous avons trouvé des preuves directes que le fait d’être  surveillé de près par vidéosurveillance a un impact marqué sur une fonction intrinsèque et involontaire de la perception sensorielle humaine : la capacité à détecter consciemment un visage », explique le professeur associé Kiley Seymour, auteur principal de l’étude, dans un communiqué.

La surveillance à l’épreuve

L’équipe de recherche de l’Université de technologie de Sydney, dirigée par Seymour, a conçu une expérience ingénieuse pour tester l’effet de la surveillance sur notre traitement visuel inconscient. Ils ont recruté 54 étudiants de premier cycle et les ont divisés en deux groupes : un groupe a effectué une tâche visuelle tout en étant surveillé de près par plusieurs caméras de surveillance, tandis que le groupe témoin a effectué la même tâche sans la présence de caméras.

Le groupe surveillé a été préalablement informé du dispositif de surveillance, notamment d’une vidéo en direct d’eux-mêmes depuis la pièce adjacente, et a dû signer des formulaires de consentement supplémentaires reconnaissant qu’ils  seraient surveillés . Pour s’assurer que les participants ressentent pleinement le poids de la surveillance, des caméras ont été positionnées de manière à capturer tout leur corps, leur visage et même leurs mains pendant qu’ils effectuaient la tâche.

La tâche visuelle elle-même utilisait une technique astucieuse appelée suppression continue du flash (CFS), qui empêche temporairement les images montrées à un œil d’atteindre  la conscience  pendant que le cerveau les traite encore inconsciemment. Les participants ont vu des images différentes à travers chaque œil : un œil a vu des motifs colorés changeant rapidement, tandis que l’autre a vu des visages qui les regardaient directement ou qui les regardaient dans le vide.

Les « mécanismes de survie anciens » s’activent lorsqu’on les regarde

Les résultats ont été remarquables : « Les participants que nous avons surveillés sont devenus hyper conscients des stimuli faciaux presque une seconde plus vite que le groupe témoin. Cette amélioration perceptive s’est également produite sans que les participants ne s’en rendent compte », explique Seymour. Cela était vrai que les visages les regardaient directement ou non, bien que les deux groupes aient détecté les visages qui les regardaient directement plus rapidement dans l’ensemble.

Cette conscience accrue semble faire appel à des mécanismes de survie anciens. « Ce mécanisme a évolué pour nous permettre de détecter d’autres agents et menaces potentielles dans notre environnement, comme les prédateurs et les autres humains, et il semble être renforcé lorsque  nous sommes surveillés  par des caméras de surveillance », explique Seymour.

Il est important de noter que ce phénomène ne s’explique pas uniquement par le fait que les participants ont fait plus d’efforts ou ont été plus vigilants sous surveillance. Lorsque les chercheurs ont mené la même expérience en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes observés et non observés. L’amélioration était spécifique aux stimuli sociaux –  les visages  – suggérant que la surveillance exploite les circuits neuronaux fondamentaux qui ont évolué pour traiter les informations sociales.

Effets sur la santé mentale et la conscience

Ces résultats sont particulièrement pertinents pour la santé mentale. « Nous observons une hypersensibilité au regard dans des troubles de santé mentale comme  la psychose  et  le trouble d’anxiété sociale  , où les individus ont des croyances ou des préoccupations irrationnelles à l’idée d’être observés », note Seymour. Cela suggère que la surveillance pourrait interagir avec ces troubles d’une manière que nous ne comprenons pas encore entièrement.

Le plus troublant a peut-être été le décalage entre l’expérience consciente des participants et la réaction de leur cerveau. « Nous avons fait une découverte surprenante et troublante : même si les participants ont déclaré ne pas être préoccupés par le fait d’être surveillés, les effets de cette surveillance sur le traitement social de base étaient marqués, très significatifs et imperceptibles pour eux », révèle Seymour.

Ces résultats arrivent à un moment crucial de l’histoire de l’humanité, alors que nous sommes confrontés à des niveaux de surveillance technologique sans précédent. Des caméras de vidéosurveillance aux systèmes de reconnaissance faciale, en passant par les appareils de localisation et l’« Internet des objets », nos activités sont de plus en plus surveillées et enregistrées. L’étude suggère que cette observation constante pourrait nous affecter à un niveau plus profond qu’on ne le pensait jusqu’à présent, modifiant des processus perceptifs de base qui opèrent normalement en dehors de notre conscience.

Les implications vont au-delà  des préoccupations individuelles en matière de vie privée  et touchent à la santé mentale publique et aux manières subtiles dont la surveillance pourrait remodeler la cognition humaine et les interactions sociales. À mesure que la technologie de surveillance continue de progresser, notamment les neurotechnologies émergentes qui pourraient potentiellement surveiller notre activité mentale, la compréhension de ces effets inconscients devient de plus en plus cruciale.

À l’instar des participants à l’étude qui ont détecté les visages plus rapidement lorsqu’ils étaient surveillés, nous nous adaptons peut-être tous inconsciemment à notre monde de plus en plus surveillé, d’une manière que nous ne comprenons pas encore totalement. Big Brother, semble-t-il, ne se contente pas de nous observer : il change notre façon de voir le monde.

Résumé de l’article
Méthodologie

Les chercheurs ont utilisé une technique visuelle spécialisée appelée suppression continue du flash (CFS) où les participants regardent différentes images à travers chaque œil à l’aide d’un stéréoscope à miroir. Un œil voit un motif coloré qui change rapidement tandis que l’autre voit un visage qui regarde directement devant ou au loin. Le motif changeant empêche temporairement la conscience du visage, mais le cerveau le traite toujours inconsciemment. En mesurant la rapidité avec laquelle les participants prennent conscience de l’emplacement du visage (à gauche ou à droite du centre), les chercheurs peuvent évaluer l’efficacité avec laquelle leur système visuel traite cette information. L’étude a comparé deux groupes : l’un surveillé par plusieurs caméras (groupe expérimental) et l’autre sans caméra (groupe témoin).

Résultats

Le groupe observé a détecté les visages beaucoup plus rapidement que le groupe témoin, avec une différence de vitesse de détection de près d’une seconde complète. Cela s’est vérifié pour les visages en regard direct et en regard détourné, bien que les visages en regard direct aient été détectés plus rapidement par les deux groupes. Fait important, lorsque l’expérience a été répétée en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes, ce qui montre que l’effet est spécifique aux stimuli sociaux. Le groupe observé a également montré une plus grande précision dans la détection de l’emplacement des visages.

Limites

L’étude a utilisé un échantillon relativement petit d’étudiants de premier cycle, ce qui limite potentiellement la généralisabilité. La condition de surveillance utilisait plusieurs caméras de manière évidente, ce qui pourrait ne pas refléter parfaitement les situations de surveillance du monde réel où la surveillance est souvent plus subtile. De plus, l’étude n’a examiné que les effets à court terme de la surveillance, laissant sans réponse les questions sur les impacts à long terme.

Discussion et points à retenir

Cette étude révèle que la surveillance affecte non seulement le comportement conscient, mais aussi les processus perceptifs inconscients, notamment le traitement des informations sociales comme les visages. L’effet semble se produire en dehors de la conscience, car les participants n’ont rapporté qu’une légère sensation d’être observés malgré des changements significatifs dans le traitement visuel. Cela suggère que la surveillance pourrait avoir des impacts psychologiques plus profonds que ce que l’on pensait jusqu’à présent, avec des implications potentielles pour la santé mentale publique et l’interaction sociale dans des sociétés de plus en plus surveillées.

Financement et divulgations

L’article précise qu’aucun financement spécifique n’a été déclaré pour cette recherche et que les auteurs n’ont déclaré aucun conflit d’intérêt. L’étude a été approuvée par le Comité d’éthique humaine de l’Université Western Sydney.

Source :  StudyFinds

StudyFinds a pour objectif de trouver de nouvelles recherches qui s’adressent à un large public, sans tout le jargon scientifique. Les articles que nous publions sont des versions digestes et résumées de recherches qui ont pour but d’informer le lecteur et de susciter un débat civilisé et éclairé. Les articles de l’équipe StudyFinds sont assistés par l’IA, mais toujours soigneusement révisés et édités par un membre de l’équipe Study Finds. Lisez notre politique sur l’IA pour plus d’informations.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Absurdie : Un habitant du Minnesota accusé d’avoir refusé de retirer sa casquette « MAGA » dans un bureau de vote

Un fan de Donald Trump qui a refusé le mois dernier de retirer sa casquette « Make America Great Again » alors qu’il se trouvait dans un bureau de vote du Minnesota a été inculpé hier pour délit.

Généré par IA

La police a déclaré que Christopher Villwock, 34 ans, « portait un chapeau affichant le logo/slogan d’un candidat figurant sur le bulletin de vote pour l’élection présidentielle » lorsqu’il s’est présenté à un bureau de vote le 5 novembre.

Selon un dossier judiciaire du 17 décembre, les superviseurs du bureau de vote et les juges électoraux ont demandé à plusieurs reprises à Villwock de retirer son chapeau . Villwock « est devenu agressif et n’a pas voulu se plier aux nombreuses demandes de quitter le bureau de vote ». Il « a finalement été expulsé » par des agents du département de police de Mankato.

 Un examen des images de surveillance par la police a montré que Villwock ignorait les responsables électoraux et « s’approchait et interrogeait les citoyens qui tentaient de voter à ce moment-là ». En raison de cette perturbation, une « longue file d’électeurs s’est formée », les responsables étant « obligés de rediriger les électeurs loin de la situation tout en s’adressant simultanément à Villwock ».

Sur la photo Facebook ci-dessus, Villwock a été accusé d’un délit pour avoir prétendument violé la loi de l’État sur les pratiques de campagne équitables. Ce chef d’accusation est passible d’une amende maximale de 300 $.

Villwock, qui vit sur Patriot Drive à Mankato, a publié sur sa page Facebook des messages appelant à soutenir les candidats républicains et détaillant les effets secondaires supposés de l’eau fluorée. Une autre publication montre une pancarte manuscrite déclarant que « toutes les agences à 3 lettres doivent être démantelées et abolies ».

Le gouverneur du Minnesota, Tim Walz, candidat démocrate à la vice-présidence de 2024, a enseigné et entraîné le football au lycée Mankato West pendant une décennie avant de partir pour se présenter au Congrès en 2006.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Entrée en vigueur des lois britanniques sur la censure en ligne

La Grande-Bretagne pourrait bientôt infliger aux géants des réseaux sociaux une amende pouvant atteindre 10 % de leurs revenus annuels s’ils ne suppriment pas les contenus illégaux

Généré par IA

La nouvelle loi britannique sur la censure en ligne est entrée en vigueur lundi, alors que le régulateur des télécommunications du pays a publié une liste de contenus que les plateformes de médias sociaux doivent supprimer pour éviter des amendes de plusieurs millions de livres.

L’Ofcom, l’organisme de surveillance des médias et des télécommunications du gouvernement britannique, a publié un ensemble de directives que les plateformes comme Meta, Google et TikTok doivent respecter d’ici mars, sous peine de sanctions en vertu de la loi sur la sécurité en ligne, adoptée en 2023.

Les directives énumèrent une série de 130 actes illégaux que ces plateformes doivent interdire et prévenir, notamment l’incitation au terrorisme, la traite des êtres humains et le partage de matériel d’abus sexuel sur mineur.

Est également interdite « l’incitation à la haine raciale » ou « la haine fondée sur la religion ou l’orientation sexuelle », qui, bien que mal définies, sont déjà illégales en vertu de la loi britannique.

Certaines infractions sont « complexes », a écrit l’Ofcom. « Elles peuvent concerner une série d’interactions entre utilisateurs, ou peuvent impliquer un comportement qui se déroule en partie hors ligne, ou peuvent impliquer de réfléchir à la nature, à l’identité ou à l’âge d’un ou plusieurs utilisateurs concernés. »

Une première version de la loi sur la sécurité en ligne comprenait une clause interdisant certains contenus « légaux mais nuisibles » . Cependant, ce passage a été retiré du projet de loi l’année dernière après que le ministre du Commerce et des Affaires de l’époque, Kemi Badenoch, s’est plaint qu’il s’agissait d’une « législation visant à blesser les sentiments ».

Néanmoins, le Premier ministre Keir Starmer aurait envisagé de réinsérer la clause controversée après qu’une vague d’émeutes anti-immigration et anti-islam a balayé le Royaume-Uni en août, mais a finalement décidé de ne pas le faire, selon un porte-parole de son bureau.

Les entreprises qui ne se conforment pas aux nouvelles règles de l’Ofcom s’exposent à une amende pouvant atteindre 10 % de leur chiffre d’affaires annuel mondial, jusqu’à un maximum de 18 millions de livres sterling (22,8 millions de dollars). En cas de récidive, les dirigeants pourraient être condamnés à des peines de prison, tandis que l’Ofcom pourrait demander une ordonnance du tribunal pour bloquer l’accès à une plateforme au Royaume-Uni.

Selon l’Ofcom, les règles s’appliqueront à plus de 100 000 entreprises du monde entier, des plus grandes plateformes de médias sociaux aux  « très petits » fournisseurs de divertissement, de rencontres, de jeux d’argent et d’autres services en ligne.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Le Parlement grec retire son financement au parti d’extrême droite Spartans

Une large majorité au parlement grec a approuvé un amendement du ministère de l’Intérieur visant à suspendre le financement du Parti spartiate.

Généré par IA

L’annonce du 17 décembre prévoyait également que le parti devra rembourser les subventions publiques reçues après avoir refusé de participer aux élections au Parlement européen en juin dernier.

Cet échec est le résultat d’une interdiction faite au parti par la Cour suprême grecque alors qu’il faisait l’objet d’une enquête pour ses relations avec Ilias Kasidiaris, le président du Parti national grec d’extrême droite.

Il était également l’ancien chef de l’Aube dorée, une organisation néonazie aujourd’hui dissoute après avoir été reconnue coupable d’être une organisation criminelle. Kasidiaris a été condamné en 2020 à 13 ans de prison pour son rôle au sein du parti d’extrême droite interdit.

Le Parti national a été exclu des élections grecques de 2023 et, depuis sa prison, Kasidiaris a alors annoncé son soutien total aux Spartiates, qui l’ont publiquement remercié de l’avoir fait.

Après avoir été exclus des élections européennes, les Spartiates risquent désormais d’être disqualifiés par le parlement grec.

Les politiciens grecs qui ont approuvé l’amendement ont déclaré qu’ils travaillaient pour protéger les institutions démocratiques et freiner les abus financiers.

L’amendement a établi des conditions claires pour le financement des partis, en liant le soutien financier à la participation active aux élections. Il a comblé une lacune juridique datant de 2019 qui permettait à des partis comme les Spartans aux élections du Parlement européen de recevoir un financement sans présenter de candidats.

Désormais, les partis qui ne participent pas aux élections devront rembourser tous les fonds publics qu’ils ont reçus dans un délai d’un mois après avoir reçu une notification formelle du ministère de l’Intérieur.

Si des partis sont reconnus comme étant liés à des criminels ou à des activités criminelles, leur financement sera suspendu indéfiniment.

Les membres d’Aube Dorée ont été accusés d’avoir perpétré des actes de violence de type justicier et des crimes haineux contre des immigrés, des opposants politiques, des homosexuels et des minorités ethniques.

Ses bureaux ont été attaqués à plusieurs reprises par des anarchistes et d’autres militants de gauche.

Plusieurs membres ont également été reconnus coupables du meurtre d’un militant d’extrême gauche.

Panagiotis Doudonis, député du parti socialiste Pasok, a déclaré le 17 décembre au média grec iefimerida que le projet de loi était « attendu depuis longtemps » et a déclaré que le gouvernement n’avait pas agi rapidement, permettant à l’argent public d’aller à ce qu’il a qualifié de « façade pour des activités criminelles ».

« Après plus de 1,7 million d’euros d’argent public perdu, le gouvernement prend enfin des mesures pour remédier à ce que nous mettons en évidence depuis plus d’un an. Mieux vaut tard que jamais, mais ce retard a coûté cher au peuple grec », a déclaré M. Doudonis.

Il a condamné le fait que l’argent des contribuables ait été versé à un parti dont la direction aurait été dirigée sous l’influence d’un criminel condamné, qualifiant cela de « tache sur le bilan du gouvernement ». Il faisait ainsi référence aux allégations selon lesquelles Kasidiaris était le chef de facto des Spartiates, a rapporté BalkansInsight en avril de cette année.

« Il ne s’agit pas seulement de récupérer l’argent ; il s’agit de restaurer la confiance dans les processus démocratiques et le financement public », a déclaré Doudonis.

Le ministre grec de l’Intérieur, Thodoris Livanios, a admis que le parti avait reçu 1,7 million d’euros, mais a déclaré que depuis octobre, aucun financement supplémentaire n’avait été accordé.

Vasilis Stigas, le président des Spartiates, a déclaré au parlement grec que son parti représentait légitimement 250 000 Grecs.

« Je tiens à souligner une fois de plus que je ne suis pas personnellement accusé, qu’aucune charge pénale n’a été retenue contre moi, mais que des parlementaires… sont accusés, remarquez-le, d’avoir trompé les électeurs. En d’autres termes, ce qui se passe est vraiment inconcevable… c’est de la paranoïa grecque !

« Nous n’avons même pas une contravention pour excès de vitesse, pour le dire simplement, et pourtant on nous traite de voleurs et d’escrocs, on nous accuse de détournement de fonds », a déclaré Stigas.

Il a ajouté que de nombreuses accusations contre son parti étaient sans fondement et a affirmé qu’il ne s’agissait que de calomnies.

Stigas a également noté que le Pasok était lui-même endetté à hauteur de 430 millions d’euros.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Aller à l’accueil

Five Eyes appelle à une censure plus large dans le cadre de la campagne « Protégez les enfants »

Five Eyes appelle à une censure plus large dans le cadre de la campagne « Protégez les enfants »

Généré par IA

Un réseau facilitant le partage de renseignements entre les agences d’espionnage des États-Unis, du Royaume-Uni, du Canada, de l’Australie et de la Nouvelle-Zélande, connu sous le nom de Five Eyes, a pour objectif le cryptage et, partant, l’anonymat en ligne.

Une censure encore plus poussée en ligne ne serait pas non plus une mauvaise idée – voici quelques-uns des points saillants du premier document public publié par les organisations à l’origine de ce groupe.

Nous avons obtenu une copie du document pour vous ici .

Et Five Eyes n’hésite pas à promouvoir ses objectifs ultimes et de bien plus grande portée en utilisant le bon vieux « pensez aux enfants » – le titre du document est Les jeunes et l’extrémisme violent : un appel à l’action collective.

Le document et le communiqué de presse qui l’accompagne considèrent le cryptage en ligne comme un simple outil utilisé par les criminels. Dans le même temps, le document ignore le fait que l’ensemble de l’écosystème Internet, des communications aux services bancaires en passant par tout ce qui se trouve entre les deux, nécessite un cryptage puissant, à la fois pour des raisons de confidentialité et de sécurité.

Mais, Five Eyes se concentre uniquement sur les communications, qu’ils qualifient vaguement d’environnements en ligne, et ceux qui peuvent permettre aux délinquants sexuels d’accéder aux enfants. Ils mentionnent également les extrémistes et, tout aussi vaguement, « d’autres » acteurs malveillants.

Étant donné que les plateformes cryptées offrent l’anonymat, les espions des cinq pays (qui qualifient la situation de « large degré d’anonymat ») n’apprécient pas cela non plus – et l’associent à nouveau à des scénarios négatifs, tels que la « radicalisation menant à la violence ».

Le document ne précise pas les mécanismes exacts qui renforceraient la censure en ligne, mais mentionne à la fois les gouvernements et l’industrie technologique ; la première catégorie devrait « renforcer le soutien législatif aux forces de l’ordre », tandis que l’autre est exhortée à « assumer une plus grande responsabilité pour les dommages causés sur leurs plateformes ».

Les plateformes de jeu Discord, Instagram, Roblox ainsi que TikTok sont considérées comme « apparemment inoffensives » – mais selon Five Eyes, elles rendent le contenu extrémiste violent « plus accessible ».

La « réponse de l’ensemble de la société » est la solution proposée au problème de la radicalisation des mineurs dans ces pays. Et les documents promettent que l’alliance continuera à travailler avec « les agences gouvernementales, le secteur de l’éducation, les services de santé mentale et de bien-être social, les communautés et les entreprises technologiques ».

« Il est important de travailler ensemble dès le début, car une fois que les forces de l’ordre et les agences de sécurité doivent intervenir, il est souvent trop tard », prévient le document.

Ainsi, un réseau dont les membres sont probablement, d’une manière ou d’une autre, à l’origine de nombreuses attaques existantes contre le cryptage et l’anonymat en ligne, apparaît désormais comme la soi-disant « dernière recrue » de la campagne.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil