Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’IA de surveillance détecte les idées suicidaires dans les écoles et envoie la police au domicile des élèves

À l’ère de l’intégration croissante de la technologie dans tous les aspects de la vie, les écoles se trouvent à l’avant-garde d’une tendance inquiétante : l’utilisation généralisée de logiciels basés sur l’IA pour surveiller et analyser le comportement et la santé mentale de leurs élèves. Ce qui a commencé comme un effort bien intentionné pour protéger les enfants contre l’automutilation s’est transformé en un scénario complexe et souvent troublant, où la surveillance et les algorithmes d’IA déterminent si les enfants sont suicidaires en fonction de leur activité informatique .

Généré par IA

Le New York Times a récemment fait état de l’utilisation de logiciels comme GoGuardian Beacon , qui enregistre chaque mot tapé sur les appareils fournis par l’école afin d’identifier d’éventuelles idées suicidaires. Cependant, les résultats sont loin d’être rassurants. Le logiciel interprète souvent mal les communications des élèves, ce qui entraîne de fausses alertes et, dans certains cas, l’intervention des forces de l’ordre.

Un logiciel de surveillance IA envoie la police au domicile des étudiants

À Neosho, dans le Missouri, une jeune fille de 17 ans a été réveillée au milieu de la nuit par la police après qu’un poème qu’elle avait écrit il y a des années a été signalé par GoGuardian Beacon. L’incident a été décrit par sa mère comme l’une des expériences les plus traumatisantes de sa vie. Ce n’est qu’un des nombreux incidents documentés qui soulèvent de sérieuses questions sur l’efficacité et l’éthique de cette technologie.

Ces systèmes, qui reposent sur une collecte de données sophistiquée , constituent une atteinte importante à la vie privée des étudiants, et leur efficacité est peu prouvée. Les groupes de défense des droits civiques sont particulièrement alarmés par l’implication des forces de l’ordre dans ce qui s’avère souvent être de fausses alertes. Le manque de transparence et de responsabilité des entreprises à l’origine de ces technologies constitue une autre préoccupation majeure.

De plus, le déploiement d’outils d’IA dans les salles de classe ne se limite pas aux systèmes d’intervention d’urgence. Des plateformes comme SchoolAI prétendent aider les enseignants à répondre non seulement aux besoins académiques, mais aussi aux aspects sociaux, comportementaux et de santé mentale de leurs élèves. Cette approche holistique semble prometteuse à première vue, mais elle soulève également de sérieuses questions sur les véritables intentions derrière cette technologie.

Par exemple, certains enseignants utilisent l’outil « sonnerie » de SchoolAI pour interagir avec les élèves grâce à un chatbot qui recueille des informations sur leur humeur et leur attitude à l’égard de l’apprentissage. Le système génère ensuite une « carte thermique » permettant à l’enseignant de surveiller les émotions des élèves. Si les partisans de cette méthode affirment qu’elle aide les enseignants à identifier les élèves qui ont besoin de soutien, beaucoup y voient une autre forme de surveillance intrusive.

Les systèmes de surveillance de l’IA peuvent élargir le fossé entre les interactions humaines, perpétuant ainsi les luttes mentales

Ces systèmes d’IA constituent-ils vraiment la meilleure approche pour assurer le bien-être mental des élèves ? Cette technologie semble fournir une solution superficielle, en offrant aux enseignants un « centre de commandement et de contrôle » pour surveiller l’état émotionnel de leurs élèves . Cependant, elle soulève des inquiétudes quant à l’impact à long terme d’une telle surveillance constante sur la vie privée et l’autonomie des élèves.

De plus, l’utilisation de l’IA dans les centres de conseil scolaire pour recueillir et analyser des données sur les niveaux de santé mentale des élèves, tels que l’anxiété, la dépression et le bonheur général, semble brouiller les frontières entre thérapie et surveillance. À mesure que ces outils deviennent plus sophistiqués, ils peuvent fournir des informations en temps réel sur le comportement des élèves, mais ils risquent également de transformer les écoles en environnements où la vie privée n’est qu’une considération secondaire et où l’attention d’un conseiller ou d’un enseignant humain est réduite à une simple collecte de données, au lieu d’une véritable préoccupation humaine.

L’IA dans les écoles est souvent présentée comme un moyen d’améliorer l’efficacité et l’allocation des ressources. Les enseignants et les administrateurs n’hésitent pas à souligner les avantages potentiels, comme la réduction de la charge de travail et l’amélioration du soutien émotionnel des élèves. Cependant, les risques sont tout aussi importants : les élèves se sentent moins soutenus émotionnellement qu’avant, les administrateurs jouent sur leur humeur et s’immiscent dans leurs pensées.

Alors que nous continuons d’intégrer l’IA dans nos écoles, nous devons nous demander : est-ce que nous nous attaquons vraiment aux causes profondes de la détresse des élèves, ou est-ce que nous créons simplement un environnement dans lequel les élèves sont constamment surveillés, leurs paroles et leurs actions analysées à la recherche d’éventuels signaux d’alerte ? La promesse de la technologie pour aider les élèves est indéniable, mais elle doit être mise en balance avec les préoccupations bien réelles en matière de confidentialité, d’autonomie et de risque d’utilisation abusive.

Les sources incluent :

Technocratie.actualités

NYTimes.com

Futurisme.com

WestJordanJournal.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Le Parlement européen approuve la création d’un comité pour lutter contre la « désinformation » en ligne

Le bouclier démocratique européen brouillera la frontière entre la lutte contre la désinformation et le contrôle de la liberté d’expression.

Généré par IA

Le Parlement européen a franchi une nouvelle étape dans ses efforts continus pour contrôler le flux d’informations en ligne, en approuvant la création d’une nouvelle commission chargée de lutter contre ce qu’il décrit comme l’ingérence étrangère et la désinformation.

Baptisée « Bouclier démocratique européen » , cette initiative est conçue comme une protection des processus démocratiques mais suscite de vives inquiétudes quant à la censure et aux abus. La création du comité s’aligne sur le programme politique de la Commission européenne pour 2024-2029 et devrait commencer ses activités l’année prochaine.

Lors d’une séance plénière à Strasbourg, la décision a reçu un large soutien, avec 441 membres votant pour, 178 contre et 34 abstentions.

Bien que cette mesure soit présentée comme une mesure visant à protéger la démocratie, les critiques se demandent depuis longtemps si des pouvoirs aussi étendus risquent d’étouffer les opinions dissidentes sous couvert de lutte contre la désinformation.

Le mandat du comité s’étend à l’examen des plateformes en ligne, du contenu généré par l’IA et des menaces dites « hybrides » – de vastes catégories qui pourraient potentiellement englober des discours politiques légitimes ou des récits alternatifs.

Composé de 33 membres, le comité ad hoc sur le bouclier démocratique européen sera en place pour un mandat de 12 mois. Sa composition, qui sera déterminée par les groupes politiques, sera annoncée fin janvier. Ses responsabilités incluent l’examen des lois existantes pour en identifier les faiblesses potentielles qui pourraient être exploitées et recommander des réformes. Cependant, les sceptiques pourraient faire valoir que cette approche pourrait conduire à une augmentation des contraintes réglementaires sur les plateformes numériques, ce qui soulèverait des questions sur la liberté d’expression et la transparence dans la prise de décision.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’Italie inflige une amende à OpenAI pour violation des règles de confidentialité de ChatGPT

  • Le régulateur italien des données inflige une amende de 15 millions d’euros à OpenAI
  • L’entreprise estime que la décision est disproportionnée et va faire appel
  • Watchdog a brièvement banni ChatGPT l’année dernière
  • Open AI a reçu l’ordre de lancer une campagne médiatique sur l’utilisation des données de ChatGPT
Généré par IA

MILAN, 20 décembre (Reuters) – L’agence italienne de protection des données a annoncé vendredi avoir infligé une amende de 15 millions d’euros (15,58 millions de dollars) au créateur de ChatGPT, OpenAI, après avoir clôturé une enquête sur l’utilisation de données personnelles par l’application d’intelligence artificielle générative.L’amende a été infligée après que l’autorité a constaté qu’OpenAI 

avait traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d’une base juridique adéquate et avait violé le principe de transparence et les obligations d’information connexes envers les utilisateurs ».

OpenAI a déclaré que la décision était « disproportionnée » et que la société allait faire appel.

L’enquête, qui a débuté en 2023, a également conclu que la société basée aux États-Unis ne disposait pas d’un système de vérification de l’âge adéquat pour empêcher les enfants de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, a déclaré l’autorité.

L’organisme de surveillance italien a également ordonné à OpenAI de lancer une campagne de six mois dans les médias italiens pour sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs pour former les algorithmes.

L’autorité italienne, connue sous le nom de Garante, est l’un des régulateurs les plus proactifs de l’Union européenne dans l’évaluation de la conformité des plateformes d’IA avec le régime de confidentialité des données du bloc.

L’année dernière, l’utilisation de ChatGPT a été brièvement interdite en Italie en raison de violations présumées des règles de confidentialité de l’UE.

Le service a été réactivé après que Microsoft (MSFT.O), ouvre un nouvel onglet OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser leur consentement à l’utilisation de données personnelles pour former les algorithmes.« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans l’IA, mais cette amende représente près de vingt fois les revenus que nous avons réalisés en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l’approche du Garante « porte atteinte aux ambitions de l’Italie en matière d’IA ».Le régulateur a déclaré que le montant de son amende de 15 millions d’euros avait été calculé en tenant compte de la « position coopérative » d’OpenAI, suggérant que l’amende aurait pu être encore plus élevée.

En vertu du règlement général sur la protection des données (RGPD) de l’UE, introduit en 2018, toute entreprise reconnue coupable d’avoir enfreint les règles s’expose à des amendes pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial.

Reportage d’Alessia Pe et Elvira Pollina Reportage supplémentaire de Supantha Mukherjee Montage d’Alvise Armellini et Frances Kerry

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Google propose des solutions pour mettre fin à son monopole sur les moteurs de recherche

Google, filiale d’Alphabet, a proposé de nouvelles limites aux accords de partage des revenus avec des entreprises, dont Apple, qui font du moteur de recherche de Google le moteur par défaut sur leurs appareils et navigateurs.

Généré par IA

Ces suggestions découlent de la bataille antitrust en cours entre le géant américain de la recherche et ses activités de recherche en ligne.

En août, le juge de district américain Amit Mehta a statué que Google avait illégalement écrasé sa concurrence dans le domaine des moteurs de recherche – une décision contre laquelle l’entreprise s’est engagée à faire appel.

Dans un dossier juridique soumis vendredi, Google a déclaré qu’il devrait être autorisé à continuer de conclure ces contrats avec d’autres sociétés tout en élargissant les options qu’il offre.

Ces options incluent la possibilité d’attribuer différents moteurs de recherche par défaut à différentes plates-formes et modes de navigation.

Les solutions proposées par Google prévoient également la possibilité pour les partenaires de changer leur fournisseur de recherche par défaut au moins tous les 12 mois.

Ces propositions contrastent fortement avec les mesures radicales suggérées le mois dernier par le ministère américain de la Justice (DOJ), qui recommandait au juge Mehta de forcer l’entreprise à cesser de conclure des contrats de partage des revenus.

Les avocats du ministère de la Justice ont également exigé que Google vende Chrome, le navigateur Web le plus populaire au monde.

Le moteur de recherche de Google représente environ 90 % de toutes les recherches en ligne dans le monde, selon la plateforme d’analyse du trafic Web Statcounter .

Dans un communiqué, Google a qualifié les mesures proposées par le DOJ de « trop vastes » et a déclaré que même ses propres contre-propositions, déposées en réponse à un délai imposé par le tribunal, auraient un coût pour ses partenaires.

Le juge Mehta devrait rendre une décision dans la phase de recours de cette affaire historique d’ici août, après un procès.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un important réseau pédopornographique international démantelé

Une centaine de personnes ont été interpellées. Les usagers de la messagerie accédaient à des images et vidéo mettant en scène des mineurs.

Généré par IA

Une centaine de personnes, 95 pour être précis, ont été interpellées en France dans le démantèlement d’un important réseau international de diffusion d’images pornographiques. Ces dernières mettaient en scène des mineurs sur la messagerie Signal, a indiqué jeudi la gendarmerie française.

Selon la gendarmerie, confirmant une information de BFM TV, plus de 16’000 personnes dans 130 pays participaient à des forums. Là, plus de 200 téraoctets d’images et de vidéos étaient mises à disposition des utilisateurs.

Le profil des interpellés varie: tous sont des hommes, âgés de 18 à 74 ans, auxquels il faut ajouter un mineur de 16 ans. Parmi eux, trente-six étaient déjà connus pour des infractions sexuelles à l’égard de mineurs ou consultation de sites mettant en scène des mineurs. Sept étaient déjà inscrits au fichier des auteurs d’infractions sexuelles ou violentes (Fijais).

Un adjoint d’un maire

La majorité des mis en cause, qui vivent principalement dans les régions Ile-de-France, Nouvelle-Aquitaine, Auvergne-Rhône-Alpes ou Grand-Est, a déjà reconnu les faits.

L’un d’entre eux exerçait la profession de directeur d’une association d’information aux jeunes, un autre était éducateur sportif. L’adjoint d’un maire est également impliqué.

Les perquisitions, menées du 9 au 19 décembre, ont permis de découvrir 375’000 photos et 156’000 vidéos tandis que 122 ordinateurs, 330 supports numériques et 152 smartphones ont été saisis, contenant 217 To de données.

L’enquête a débuté en novembre 2023 à l’occasion de la perquisition du téléphone d’un individu demeurant dans les Hauts-de-Seine mis en cause pour consultation habituelle d’images pédopornographiques.

Messagerie chiffrée

Les cyber-enquêteurs de la section de recherches (SR) de Versailles, avec le concours de l’Unité nationale cyber (UNC), ont ainsi découvert l’existence de plusieurs groupes de discussion sur la messagerie chiffrée Signal, dont le nom est sans équivoque sur leur objet.

«Ce qui se cache derrière ces forums, c’est toute cette galaxie de pédocriminels qui potentiellement peut être extrêmement dangereuse parce qu’elle peut être aussi prédatrice», a expliqué à l’AFP le colonel Hervé Petry de l’UNC.

«Aujourd’hui, avec les réseaux sociaux, il y a une augmentation de l’offre puisque les images et les vidéos peuvent s’échanger extrêmement facilement (…) Maintenant, on peut se connecter à n’importe quelle heure», selon lui

(AFP)

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

La loi britannique sur la censure en ligne pousse les petits sites Web à fermer

La loi britannique sur la sécurité en ligne oblige les petits sites comme Microcosm à fermer, invoquant une responsabilité et des risques disproportionnés en vertu de la nouvelle loi.

Généré par IA

La loi britannique de censure en ligne – l’  Online Safety Act  – qui entrera en vigueur à partir de mars prochain, fait déjà ses premières victimes.

Le nouveau paysage législatif du pays n’offre désormais aucune forme de sécurité à des centaines de petits sites Internet, y compris des forums à but non lucratif, qui devront fermer, incapables de se conformer à la loi – en particulier, face à ce que les rapports qualifient de « responsabilité personnelle disproportionnée ».

Les amendes s’élèvent à l’équivalent de 25 millions de dollars, tandis que la loi introduit également de nouvelles infractions pénales.

Plus tôt dans la semaine, l’Ofcom, l’organisme chargé de l’application de la loi, a publié des dizaines de mesures que les services en ligne sont censés mettre en œuvre d’ici le 16 mars, notamment la désignation d’une personne responsable – et comptable – de s’assurer qu’un site ou une plateforme est conforme.

La loi est présentée comme une nouvelle façon de lutter efficacement contre les contenus illégaux et, en particulier, de fournir de nouveaux moyens de garantir la sécurité des enfants en ligne, notamment par la vérification de l’âge (« age verification »).

Ses opposants la rejettent cependant, la considérant comme une « charte de censure » destinée à forcer les entreprises à intensifier la surveillance et la censure sur leurs plateformes, notamment en analysant les communications privées et en sapant le cryptage.

Mais une autre façon de nuire concrètement à l’écosystème en ligne, tout en cherchant de manière déclarative à prévenir les dommages, apparaît désormais avec l’exemple des petits sites communautaires, où ceux qui les gèrent ne sont pas disposés à assumer le risque massif lié à la fois aux amendes et à la responsabilité pénale au cas où ils ne parviendraient pas à « modérer » conformément aux dispositions de la loi.

La presse britannique  rapporte  l’un des premiers exemples de ce phénomène : le service d’hébergement gratuit à but non lucratif Microcosm et ses 300 sites – parmi lesquels des centres communautaires et des forums dédiés à des sujets comme le cyclisme et la technologie – fermeront en mars, incapables de répondre à une « responsabilité personnelle disproportionnée ».

« C’est trop vague et trop large et je ne veux pas prendre ce risque personnel », a déclaré Dee Kitchen de Microcosm.

Bien que l’impression générale soit que seuls les services aux grandes entreprises seront concernés par la loi, en réalité les exigences et les sanctions sont plus lourdes pour eux, mais l’Ofcom a clairement indiqué que les « très petites micro-entreprises » sont également soumises à la législation.

La décision de Microcosm illustre à quoi cela ressemblera dans la pratique, lorsque les sites – grands et petits – envisageront de trouver un hébergement à l’étranger, voire de quitter le marché britannique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Elon Musk donne son feu vert au parti d’extrême droite allemand à l’approche des élections

20 décembre (Reuters) – Le milliardaire américain Elon Musk, qui devrait rejoindre l’administration du président élu Donald Trump en tant que conseiller extérieur, s’est impliqué vendredi dans la campagne électorale allemande, qualifiant l’Alternative pour l’Allemagne (AfD) d’extrême droite de sauveur du pays.

Généré par IA

L’AfD est deuxième dans les sondages d’opinion et pourrait être en mesure de contrecarrer une majorité de centre-droit ou de centre-gauche, mais les principaux partis allemands, plus centristes, ont juré d’éviter tout soutien de l’AfD au niveau national.

La première puissance européenne devrait se prononcer le 23 février après l’effondrement du gouvernement de coalition de centre-gauche dirigé par le chancelier Olaf Scholz.

« Seule l’AfD peut sauver l’Allemagne », a écrit Musk dans un message publié sur sa plateforme de médias sociaux, X.Elon Musk, l’homme le plus riche du monde, a déjà exprimé son soutien à d’autres partis anti-immigration à travers l’Europe.

Le gouvernement allemand a déclaré avoir pris note de la publication de Musk mais a refusé de faire d’autres commentaires lors de sa conférence de presse habituelle.

Musk a republié un message de l’influenceuse allemande de droite Naomi Seibt qui critiquait Friedrich Merz , candidat à la chancellerie pour les conservateurs, confortablement en tête dans les sondages.

Matthias Miersch, secrétaire général des sociaux-démocrates de Scholz, a déclaré au média t-online que l’Allemagne n’avait pas besoin d’influences étrangères ni de « trumpisme », ajoutant : « Reste en dehors, Elon. »Musk avait déjà exprimé son soutien à l’AfD l’année dernière, lorsqu’il avait attaqué la gestion de l’immigration illégale par le gouvernement allemand .Le mois dernier, Musk a appelé au limogeage des juges italiens qui avaient mis en doute la légalité des mesures gouvernementales visant à prévenir l’immigration irrégulière.

Et cette semaine, Nigel Farage, chef du parti de droite Reform UK et ami de Trump, a publié une photo de lui et du trésorier de Reform UK rencontrant Musk à la résidence de Trump en Floride, et a déclaré qu’il était en pourparlers avec Musk au sujet d’un soutien financier.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport américain révèle une volonté d’utiliser l’intelligence artificielle comme arme de censure

Un nouveau rapport américain met en évidence les tentatives fédérales de réglementer l’IA à des fins de censure, proposant une législation axée sur la liberté d’expression pour protéger l’innovation ouverte.

Généré par IA

Depuis un certain temps déjà, l’IA émergente est traitée par l’administration Biden-Harris, mais aussi par l’UE, le Royaume-Uni, le Canada, l’ONU, etc., comme un fléau qui alimente des formes dangereuses de « désinformation » – et doit être traitée en conséquence.

Selon ces gouvernements/entités, la seule « utilisation positive » de l’IA en ce qui concerne les médias sociaux et le discours en ligne serait de permettre une censure plus efficace (« modération »).

Un nouveau rapport de la commission judiciaire de la Chambre des représentants des États-Unis et de sa sous-commission spéciale sur la militarisation du gouvernement fédéral met l’accent sur la volonté d’utiliser cette technologie à des fins de censure comme explication de l’inquiétude souvent disproportionnée quant à son rôle dans la « désinformation ».

Nous avons obtenu une copie du rapport pour vous ici .

Le titre du rapport intérimaire exprime très clairement le point de vue de ses auteurs sur ce sujet : « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression ».

L’hypothèse principale du rapport est bien connue : l’IA est désormais financée, développée et utilisée par le gouvernement et des tiers pour accélérer et étendre leur censure, et l’administration sortante a fait pression sur les développeurs d’IA pour qu’ils intègrent la censure dans leurs modèles.

La nouveauté réside dans les mesures proposées pour remédier à cette situation et garantir que les futurs gouvernements fédéraux n’utilisent pas l’IA à des fins de censure. À cette fin, le Comité souhaite que de nouvelles lois soient adoptées par le Congrès, pour un développement de l’IA qui respecte le Premier Amendement et qui soit ouvert, décentralisé et « pro-liberté ».

Le rapport recommande une législation fondée sur quatre principes, visant à préserver le droit des Américains à la liberté d’expression. Le premier est que le gouvernement ne peut pas être impliqué dans les décisions prises dans des algorithmes ou des ensembles de données privés concernant la « désinformation » ou la « partialité ».

Le gouvernement devrait également être interdit de financer des recherches liées à la censure ou une collaboration avec des entités étrangères sur la réglementation de l’IA qui conduisent à la censure.

Enfin, le document recommande d’« éviter toute réglementation inutile de l’IA qui donne au gouvernement un pouvoir coercitif ».

Le Comité prend note de la situation actuelle, où l’administration Biden-Harris a pris un certain nombre de mesures directes pour réglementer l’espace à sa satisfaction politique par le biais de décrets exécutifs, mais aussi en faisant passer sa politique en accordant des subventions via la National Science Foundation, une fois de plus, visant à créer des outils d’IA qui « combattent la désinformation ».

Mais « si on la laisse se développer de manière libre et ouverte, l’IA pourrait considérablement accroître la capacité des Américains à créer des connaissances et à s’exprimer », indique le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

« Big Brother » ne se contente pas de regarder : il change le fonctionnement de votre cerveau

Chaque fois que vous marchez dans la rue, des yeux électroniques vous observent. Des systèmes de sécurité aux caméras de surveillance routière, la surveillance est omniprésente dans la société moderne. Pourtant, ces caméras pourraient faire plus que simplement enregistrer nos mouvements : selon une nouvelle étude qui s’intéresse à la psychologie de la surveillance, elles pourraient fondamentalement modifier la façon dont notre cerveau traite les informations visuelles.

Généré par IA

Alors que des recherches antérieures ont montré que les caméras de surveillance peuvent modifier notre comportement conscient – ​​nous rendant moins susceptibles de voler ou plus enclins à suivre les règles – une nouvelle étude publiée dans  Neuroscience of Consciousness  suggère qu’être surveillé affecte quelque chose de bien plus fondamental : la façon inconsciente dont notre cerveau perçoit le monde qui nous entoure.

« Nous avons trouvé des preuves directes que le fait d’être  surveillé de près par vidéosurveillance a un impact marqué sur une fonction intrinsèque et involontaire de la perception sensorielle humaine : la capacité à détecter consciemment un visage », explique le professeur associé Kiley Seymour, auteur principal de l’étude, dans un communiqué.

La surveillance à l’épreuve

L’équipe de recherche de l’Université de technologie de Sydney, dirigée par Seymour, a conçu une expérience ingénieuse pour tester l’effet de la surveillance sur notre traitement visuel inconscient. Ils ont recruté 54 étudiants de premier cycle et les ont divisés en deux groupes : un groupe a effectué une tâche visuelle tout en étant surveillé de près par plusieurs caméras de surveillance, tandis que le groupe témoin a effectué la même tâche sans la présence de caméras.

Le groupe surveillé a été préalablement informé du dispositif de surveillance, notamment d’une vidéo en direct d’eux-mêmes depuis la pièce adjacente, et a dû signer des formulaires de consentement supplémentaires reconnaissant qu’ils  seraient surveillés . Pour s’assurer que les participants ressentent pleinement le poids de la surveillance, des caméras ont été positionnées de manière à capturer tout leur corps, leur visage et même leurs mains pendant qu’ils effectuaient la tâche.

La tâche visuelle elle-même utilisait une technique astucieuse appelée suppression continue du flash (CFS), qui empêche temporairement les images montrées à un œil d’atteindre  la conscience  pendant que le cerveau les traite encore inconsciemment. Les participants ont vu des images différentes à travers chaque œil : un œil a vu des motifs colorés changeant rapidement, tandis que l’autre a vu des visages qui les regardaient directement ou qui les regardaient dans le vide.

Les « mécanismes de survie anciens » s’activent lorsqu’on les regarde

Les résultats ont été remarquables : « Les participants que nous avons surveillés sont devenus hyper conscients des stimuli faciaux presque une seconde plus vite que le groupe témoin. Cette amélioration perceptive s’est également produite sans que les participants ne s’en rendent compte », explique Seymour. Cela était vrai que les visages les regardaient directement ou non, bien que les deux groupes aient détecté les visages qui les regardaient directement plus rapidement dans l’ensemble.

Cette conscience accrue semble faire appel à des mécanismes de survie anciens. « Ce mécanisme a évolué pour nous permettre de détecter d’autres agents et menaces potentielles dans notre environnement, comme les prédateurs et les autres humains, et il semble être renforcé lorsque  nous sommes surveillés  par des caméras de surveillance », explique Seymour.

Il est important de noter que ce phénomène ne s’explique pas uniquement par le fait que les participants ont fait plus d’efforts ou ont été plus vigilants sous surveillance. Lorsque les chercheurs ont mené la même expérience en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes observés et non observés. L’amélioration était spécifique aux stimuli sociaux –  les visages  – suggérant que la surveillance exploite les circuits neuronaux fondamentaux qui ont évolué pour traiter les informations sociales.

Effets sur la santé mentale et la conscience

Ces résultats sont particulièrement pertinents pour la santé mentale. « Nous observons une hypersensibilité au regard dans des troubles de santé mentale comme  la psychose  et  le trouble d’anxiété sociale  , où les individus ont des croyances ou des préoccupations irrationnelles à l’idée d’être observés », note Seymour. Cela suggère que la surveillance pourrait interagir avec ces troubles d’une manière que nous ne comprenons pas encore entièrement.

Le plus troublant a peut-être été le décalage entre l’expérience consciente des participants et la réaction de leur cerveau. « Nous avons fait une découverte surprenante et troublante : même si les participants ont déclaré ne pas être préoccupés par le fait d’être surveillés, les effets de cette surveillance sur le traitement social de base étaient marqués, très significatifs et imperceptibles pour eux », révèle Seymour.

Ces résultats arrivent à un moment crucial de l’histoire de l’humanité, alors que nous sommes confrontés à des niveaux de surveillance technologique sans précédent. Des caméras de vidéosurveillance aux systèmes de reconnaissance faciale, en passant par les appareils de localisation et l’« Internet des objets », nos activités sont de plus en plus surveillées et enregistrées. L’étude suggère que cette observation constante pourrait nous affecter à un niveau plus profond qu’on ne le pensait jusqu’à présent, modifiant des processus perceptifs de base qui opèrent normalement en dehors de notre conscience.

Les implications vont au-delà  des préoccupations individuelles en matière de vie privée  et touchent à la santé mentale publique et aux manières subtiles dont la surveillance pourrait remodeler la cognition humaine et les interactions sociales. À mesure que la technologie de surveillance continue de progresser, notamment les neurotechnologies émergentes qui pourraient potentiellement surveiller notre activité mentale, la compréhension de ces effets inconscients devient de plus en plus cruciale.

À l’instar des participants à l’étude qui ont détecté les visages plus rapidement lorsqu’ils étaient surveillés, nous nous adaptons peut-être tous inconsciemment à notre monde de plus en plus surveillé, d’une manière que nous ne comprenons pas encore totalement. Big Brother, semble-t-il, ne se contente pas de nous observer : il change notre façon de voir le monde.

Résumé de l’article
Méthodologie

Les chercheurs ont utilisé une technique visuelle spécialisée appelée suppression continue du flash (CFS) où les participants regardent différentes images à travers chaque œil à l’aide d’un stéréoscope à miroir. Un œil voit un motif coloré qui change rapidement tandis que l’autre voit un visage qui regarde directement devant ou au loin. Le motif changeant empêche temporairement la conscience du visage, mais le cerveau le traite toujours inconsciemment. En mesurant la rapidité avec laquelle les participants prennent conscience de l’emplacement du visage (à gauche ou à droite du centre), les chercheurs peuvent évaluer l’efficacité avec laquelle leur système visuel traite cette information. L’étude a comparé deux groupes : l’un surveillé par plusieurs caméras (groupe expérimental) et l’autre sans caméra (groupe témoin).

Résultats

Le groupe observé a détecté les visages beaucoup plus rapidement que le groupe témoin, avec une différence de vitesse de détection de près d’une seconde complète. Cela s’est vérifié pour les visages en regard direct et en regard détourné, bien que les visages en regard direct aient été détectés plus rapidement par les deux groupes. Fait important, lorsque l’expérience a été répétée en utilisant des motifs géométriques simples au lieu de visages, il n’y a eu aucune différence entre les groupes, ce qui montre que l’effet est spécifique aux stimuli sociaux. Le groupe observé a également montré une plus grande précision dans la détection de l’emplacement des visages.

Limites

L’étude a utilisé un échantillon relativement petit d’étudiants de premier cycle, ce qui limite potentiellement la généralisabilité. La condition de surveillance utilisait plusieurs caméras de manière évidente, ce qui pourrait ne pas refléter parfaitement les situations de surveillance du monde réel où la surveillance est souvent plus subtile. De plus, l’étude n’a examiné que les effets à court terme de la surveillance, laissant sans réponse les questions sur les impacts à long terme.

Discussion et points à retenir

Cette étude révèle que la surveillance affecte non seulement le comportement conscient, mais aussi les processus perceptifs inconscients, notamment le traitement des informations sociales comme les visages. L’effet semble se produire en dehors de la conscience, car les participants n’ont rapporté qu’une légère sensation d’être observés malgré des changements significatifs dans le traitement visuel. Cela suggère que la surveillance pourrait avoir des impacts psychologiques plus profonds que ce que l’on pensait jusqu’à présent, avec des implications potentielles pour la santé mentale publique et l’interaction sociale dans des sociétés de plus en plus surveillées.

Financement et divulgations

L’article précise qu’aucun financement spécifique n’a été déclaré pour cette recherche et que les auteurs n’ont déclaré aucun conflit d’intérêt. L’étude a été approuvée par le Comité d’éthique humaine de l’Université Western Sydney.

Source :  StudyFinds

StudyFinds a pour objectif de trouver de nouvelles recherches qui s’adressent à un large public, sans tout le jargon scientifique. Les articles que nous publions sont des versions digestes et résumées de recherches qui ont pour but d’informer le lecteur et de susciter un débat civilisé et éclairé. Les articles de l’équipe StudyFinds sont assistés par l’IA, mais toujours soigneusement révisés et édités par un membre de l’équipe Study Finds. Lisez notre politique sur l’IA pour plus d’informations.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Entrée en vigueur des lois britanniques sur la censure en ligne

La Grande-Bretagne pourrait bientôt infliger aux géants des réseaux sociaux une amende pouvant atteindre 10 % de leurs revenus annuels s’ils ne suppriment pas les contenus illégaux

Généré par IA

La nouvelle loi britannique sur la censure en ligne est entrée en vigueur lundi, alors que le régulateur des télécommunications du pays a publié une liste de contenus que les plateformes de médias sociaux doivent supprimer pour éviter des amendes de plusieurs millions de livres.

L’Ofcom, l’organisme de surveillance des médias et des télécommunications du gouvernement britannique, a publié un ensemble de directives que les plateformes comme Meta, Google et TikTok doivent respecter d’ici mars, sous peine de sanctions en vertu de la loi sur la sécurité en ligne, adoptée en 2023.

Les directives énumèrent une série de 130 actes illégaux que ces plateformes doivent interdire et prévenir, notamment l’incitation au terrorisme, la traite des êtres humains et le partage de matériel d’abus sexuel sur mineur.

Est également interdite « l’incitation à la haine raciale » ou « la haine fondée sur la religion ou l’orientation sexuelle », qui, bien que mal définies, sont déjà illégales en vertu de la loi britannique.

Certaines infractions sont « complexes », a écrit l’Ofcom. « Elles peuvent concerner une série d’interactions entre utilisateurs, ou peuvent impliquer un comportement qui se déroule en partie hors ligne, ou peuvent impliquer de réfléchir à la nature, à l’identité ou à l’âge d’un ou plusieurs utilisateurs concernés. »

Une première version de la loi sur la sécurité en ligne comprenait une clause interdisant certains contenus « légaux mais nuisibles » . Cependant, ce passage a été retiré du projet de loi l’année dernière après que le ministre du Commerce et des Affaires de l’époque, Kemi Badenoch, s’est plaint qu’il s’agissait d’une « législation visant à blesser les sentiments ».

Néanmoins, le Premier ministre Keir Starmer aurait envisagé de réinsérer la clause controversée après qu’une vague d’émeutes anti-immigration et anti-islam a balayé le Royaume-Uni en août, mais a finalement décidé de ne pas le faire, selon un porte-parole de son bureau.

Les entreprises qui ne se conforment pas aux nouvelles règles de l’Ofcom s’exposent à une amende pouvant atteindre 10 % de leur chiffre d’affaires annuel mondial, jusqu’à un maximum de 18 millions de livres sterling (22,8 millions de dollars). En cas de récidive, les dirigeants pourraient être condamnés à des peines de prison, tandis que l’Ofcom pourrait demander une ordonnance du tribunal pour bloquer l’accès à une plateforme au Royaume-Uni.

Selon l’Ofcom, les règles s’appliqueront à plus de 100 000 entreprises du monde entier, des plus grandes plateformes de médias sociaux aux  « très petits » fournisseurs de divertissement, de rencontres, de jeux d’argent et d’autres services en ligne.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Google Street View a peut-être résolu un mystère de meurtre en photographiant un homme poussant un « cadavre » dans le coffre d’une voiture

Les images ont également conduit la police jusqu’aux restes d’un homme disparu à 12 minutes de route.

Généré par IA

Des images effrayantes sur Google Street View d’une personne semblant charger un sac mortuaire à l’arrière d’une voiture ont fourni à la police espagnole un indice « décisif » sur la disparition de l’homme.

Le cas d’un Cubain porté disparu il y a un an dans la municipalité de Tajueco, dans le centre-nord de l’Espagne, faisait l’objet d’une enquête depuis plus d’un an.

Mais maintenant, des images capturées par la caméra d’une voiture de Google Maps montrant un homme debout au-dessus d’un paquet en forme de corps dans le coffre d’une voiture rouge ont potentiellement fourni à la police une avancée décisive.

D’autres images montrent un homme au sommet d’une rue poussant une brouette avec un gros paquet blanc, tandis que d’autres montrent les rues calmes de la ville espagnole.

La police espagnole a déclaré que les photos constituaient un indice « décisif » dans l’affaire. Les détectives auraient lancé une enquête pour meurtre et arrêté deux personnes en lien avec la mort de l’homme.

Les images, devenues virales en ligne, ont également aidé les policiers à localiser le corps de l’homme, connu uniquement sous le nom de JLPO et qui serait âgé de 33 ans.

La police a découvert les restes démembrés de la victime, y compris son torse, enterrés dans le cimetière d’Andaluz, à 12 minutes en voiture de l’endroit où la photo a été prise, ont rapporté les médias espagnols.

Les deux personnes arrêtées seraient l’épouse de l’homme décédé et un employé d’un bar à Tajueco.

Les enquêteurs ont découvert que le couple vivait ensemble, a rapporté Todo Alicante.

Selon El Pais, la police enquête toujours sur l’affaire et il semble qu’aucun des deux hommes n’ait encore été inculpé devant un tribunal.

« Mon Dieu, ce qui se passe dans les villages », a déclaré un ouvrier du cimetière à El Pais après avoir vu les photos de Google Maps.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’assaut de l’État de surveillance sur la vie privée : un précédent dangereux

Généré par IA

– Abus de pouvoir systémique : Le gouvernement fédéral a effectué plus de 3,3 millions de perquisitions sans mandat de données financières privées en 2023, ciblant des personnes ayant des convictions politiques conservatrices, impliquant plus de 14 000 employés fédéraux.

– Collusion avec les institutions financières : de grandes banques comme Bank of America, Wells Fargo et Chase ont volontairement fourni des données sensibles sur leurs clients au FBI sans procédure légale, permettant ainsi aux employés fédéraux de compiler des profils détaillés sur des individus.

– Violation des protections constitutionnelles : Le quatrième amendement a été ignoré, car les institutions financières ont été conditionnées à coopérer avec les autorités fédérales, contournant ainsi de fait les garanties juridiques requises par la loi.

– Effet dissuasif sur la liberté d’expression : en qualifiant les transactions de routine de suspectes, le gouvernement étouffe la liberté d’expression, dissuadant potentiellement les individus de participer à des activités normales qui pourraient être interprétées à tort comme un comportement extrémiste.

– Des appels croissants à la responsabilisation : Il existe une demande croissante de réformes et de responsabilisation, notamment pour que les employés fédéraux impliqués dans des perquisitions sans mandat soient tenus responsables et pour que les agences responsables de cette surveillance soient réduites. Le projet de ministère de l’Efficacité gouvernementale pourrait être une solution potentielle.

À une époque où la frontière entre sécurité nationale et liberté individuelle devient de plus en plus floue, les récentes actions du gouvernement fédéral ont sonné l’alarme quant à l’érosion de la vie privée, de la liberté et des droits civiques en Amérique. Un rapport accablant publié par le sous-comité spécial de la commission judiciaire de la Chambre des représentants sur la militarisation du gouvernement fédéral a révélé un niveau choquant de surveillance financière ciblant les individus ayant des convictions politiques conservatrices . Les conclusions révèlent un abus de pouvoir systémique, avec plus de 14 000 employés fédéraux effectuant plus de 3,3 millions de recherches sans mandat de données financières privées en 2023 seulement. Il ne s’agit pas seulement d’une atteinte à la vie privée ; il s’agit d’un excès délibéré et dangereux de la part du gouvernement fédéral.

L’enquête a révélé que de grandes institutions financières, dont Bank of America, Wells Fargo et Chase, ont volontairement fourni au FBI des données sensibles sur leurs clients sans procédure légale. Ces données, qui comprenaient des détails sur les transactions, des emplacements et des descriptions, ont été canalisées vers un portail créé par le FBI, permettant aux employés fédéraux de compiler des profils détaillés sur les individus. L’utilisation de termes de recherche généraux tels que « MAGA » et « TRUMP » pour surveiller et profiler les citoyens est particulièrement troublante. Des transactions aussi banales que l’achat d’une Bible ou des achats dans des magasins de plein air ont été signalées comme des indicateurs potentiels d’extrémisme, soulevant de sérieuses questions sur les motivations et les méthodes du gouvernement.

Ce qui est le plus inquiétant, c’est le mépris flagrant des protections constitutionnelles. Le quatrième amendement interdit explicitement les perquisitions et saisies abusives sans motif valable et sans mandat. Pourtant, le gouvernement fédéral a contourné ces garanties en manipulant le système de signalement des activités suspectes (SAR). Les institutions financières, conditionnées à coopérer avec les autorités fédérales, sont devenues de facto des bras armés des forces de l’ordre, donnant accès à des informations extrêmement sensibles sans la procédure légale requise par la loi. Il ne s’agit pas d’une simple formalité ; il s’agit d’une violation fondamentale des droits des Américains.

Les conséquences de cette surveillance sont considérables . En qualifiant les transactions courantes de signaux d’alerte, le gouvernement ne s’immisce pas seulement dans la vie privée des personnes, mais freine également la liberté d’expression. Les individus peuvent désormais y réfléchir à deux fois avant de s’engager dans des activités qui pourraient être interprétées à tort comme « suspectes », qu’il s’agisse d’acheter une arme à feu, d’assister à un rassemblement politique ou même de faire des achats dans un magasin associé à des valeurs conservatrices. Cet effet paralysant porte atteinte à l’essence même de la liberté dans une société démocratique.

La collaboration entre les institutions financières et les autorités fédérales est particulièrement alarmante. Les banques, chargées de protéger les informations financières de leurs clients, sont devenues complices d’un système qui privilégie la surveillance au détriment de la confidentialité. Le rapport du sous-comité met en évidence la manière dont les institutions financières ont été conditionnées à travailler pour le gouvernement, ce qui sape la confiance entre les banques et leurs clients. Cette dynamique crée un précédent dangereux, où la confidentialité financière est sacrifiée sur l’autel de la commodité gouvernementale.

Les appels à la responsabilisation et à une réforme systémique se font de plus en plus pressants. Les critiques soutiennent que les 14 000 employés fédéraux impliqués dans ces perquisitions sans mandat devraient être tenus responsables et que les agences impliquées dans cette surveillance devraient être réduites. Le Département de l’efficacité gouvernementale (DOGE), proposé par des personnalités comme Elon Musk et Vivek Ramaswamy, pourrait jouer un rôle crucial dans la résolution de ces problèmes. Cependant, la réforme doit aller au-delà de la restructuration bureaucratique ; elle doit s’attaquer aux causes profondes de cet état de surveillance.

Le rôle de l’administration Biden dans cette débâcle ne peut être ignoré. Le rapport allègue que l’administration a collaboré avec des banques pour « espionner » les Américains sans mandat, ciblant les personnes favorables au président élu Donald Trump. Cette politisation de la surveillance est profondément troublante et soulève des questions sur l’engagement du gouvernement en faveur d’une application impartiale de la loi. Les actions du gouvernement fédéral suggèrent un effort délibéré pour cibler les Américains critiques à l’égard de la réglementation sur les armes à feu, de l’ouverture des frontières, des mandats liés au COVID-19 et du soi-disant « État profond ». Ce n’est pas le comportement d’un gouvernement qui respecte l’État de droit ou la diversité de la pensée politique.

Vie privée, sécurité nationale et ère moderne

Au fur et à mesure que l’enquête avance, une chose est sûre : l’équilibre entre sécurité nationale et vie privée est dangereusement faussé. Les programmes de surveillance généralisés et sans mandat du gouvernement fédéral constituent une menace pour les libertés civiles et une trahison des principes sur lesquels cette nation a été fondée. L’érosion de la confidentialité financière n’est qu’une facette d’une tendance plus large vers l’autoritarisme, où le gouvernement considère de plus en plus ses citoyens comme des menaces potentielles plutôt que comme des partenaires de la démocratie.

À l’ère du commerce électronique et des transactions électroniques, l’avenir de la confidentialité financière semble de plus en plus sombre. Le rapport du sous-comité prévient que « sans de nouvelles mesures de protection, le gouvernement fédéral et les institutions financières continueront de détourner les données financières sensibles des Américains, de les placer entre les mains de bureaucrates et de saper tout semblant de confidentialité financière aux États-Unis ». C’est un appel à l’action pour tous les Américains qui tiennent à leurs libertés. Il est temps d’exiger des comptes et des réformes, avant que l’État de surveillance ne devienne une force inarrêtable.

Le mépris du gouvernement fédéral pour la vie privée , la liberté et les droits civiques est un signal d’alarme. Il nous rappelle que la lutte pour la liberté est sans fin et que la vigilance est le prix de la liberté. La question demeure : les Américains permettront-ils à leur gouvernement de continuer à espionner leurs comptes bancaires ou défendront-ils les principes de vie privée et de liberté qui définissent cette nation ? Le choix nous appartient.

Les sources incluent :

YourNews.com

Dailymail.fr

FoxNews.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Le Royaume-Uni s’apprête à lancer un système controversé d’identification numérique en 2025, suscitant des inquiétudes en matière de confidentialité

  • Le Royaume-Uni prévoit de lancer un système d’identification numérique utilisant les smartphones et la technologie de reconnaissance faciale pour rationaliser les fonctions gouvernementales, des achats d’alcool aux paiements d’impôts.
  • L’initiative vise à améliorer l’efficacité dans divers secteurs, y compris les services aux anciens combattants, grâce à des cartes numériques d’anciens combattants, et permettra aux jeunes d’utiliser des identifiants numériques soutenus par le gouvernement pour prouver leur âge pour les achats d’alcool.
  • Les particuliers peuvent s’inscrire auprès d’entreprises d’identité numérique certifiées pour accéder aux services gouvernementaux via des applications sur leurs smartphones, mais les critiques mettent en garde contre une éventuelle ingérence de l’État et une société à deux vitesses.
  • Des critiques comme David Kurten, du parti britannique Heritage Party, expriment leurs inquiétudes quant à l’obligation des identifiants numériques et au potentiel de contrôle gouvernemental, citant des exemples tirés des débats sur le passeport vaccinal à l’époque de la pandémie.
  • Le débat sur les identités numériques met en évidence la tension entre la commodité technologique et la préservation de la vie privée, les critiques soulignant les implications potentielles de la surveillance de l’État et l’érosion des libertés civiles.
Généré par IA

Le Royaume-Uni s’apprête à déployer un système d’identification numérique en 2025 .

La nouvelle initiative, qui utilisera les smartphones et la technologie de reconnaissance faciale, vise à rationaliser diverses fonctions gouvernementales, de l’achat d’alcool et de l’accès aux services aux anciens combattants au paiement des impôts et à l’accès aux comptes bancaires.

Selon des sources gouvernementales, le système d’identification numérique, disponible auprès d’entreprises certifiées, permettra aux individus de prouver instantanément leur âge et leur identité lorsqu’ils entrent dans des pubs, des clubs et des magasins, ainsi que pour diverses transactions en ligne. (Article connexe :  Les États américains adoptent des lois sur la vérification de l’âge sur Internet pour contraindre les gens à utiliser des identifiants numériques. )

Cette technologie promet une prestation de services plus efficace, notamment pour les anciens combattants, qui auront un accès plus rapide aux programmes de soutien grâce à des cartes d’ancien combattant numériques.

« Les jeunes pourront utiliser des cartes d’identité numériques approuvées par le gouvernement pour prouver qu’ils ont l’âge requis pour boire de l’alcool, en vertu de modifications législatives qui entreront en vigueur l’année prochaine », a indiqué le Telegraph  dans un rapport publié dimanche 8 décembre. « Ils pourront s’inscrire auprès de sociétés d’identité numérique certifiées selon les normes de sécurité et de fiabilité fixées par le gouvernement, puis utiliser l’application sur leur smartphone pour prouver qu’ils ont plus de 18 ans lorsqu’ils se rendent dans des pubs, des restaurants et des magasins. Cela fait partie d’un effort plus vaste visant à déplacer davantage de fonctions gouvernementales en ligne afin que les gens puissent prouver leur identité pour tout, du paiement des impôts à l’ouverture d’un compte bancaire en utilisant l’application soutenue par le gouvernement. »

Les critiques s’inquiètent d’une éventuelle ingérence excessive de l’État

Les critiques ont toutefois exprimé de sérieuses inquiétudes quant au risque d’une intervention excessive de l’État et de la création d’une société à deux vitesses. David Kurten, chef du parti britannique Heritage Party, prévient que le programme pourrait éventuellement devenir obligatoire, ce qui conduirait à un scénario où les personnes sans identifiant numérique seraient confrontées à des discriminations et à des obstacles pour accéder aux services.

Un autre point de discorde concerne la possibilité pour le gouvernement de désactiver à distance les identifiants numériques , ce qui empêcherait les individus d’exercer des activités essentielles s’ils sont jugés comme ayant violé des normes non spécifiées. Les critiques comparent cette situation aux systèmes de crédit social, qui, selon eux, peuvent être utilisés pour surveiller et contrôler le comportement des citoyens.

L’essor des cartes d’identité numériques a également été lié aux efforts antérieurs visant à mettre en place des passeports vaccinaux pendant la pandémie. Kurten prévient que l’approche actuelle, qui promet commodité et facilité d’accès, pourrait rapidement se transformer en mesures de contrôle plus strictes, reflétant la progression des professionnels de santé vers les enfants ciblés par la vaccination.

Les responsables gouvernementaux insistent sur le fait que le système d’identification numérique ne sera pas obligatoire, mais les critiques soulignent que de nombreux programmes volontaires deviendront obligatoires à terme. Ces derniers soutiennent également que l’intégration potentielle des identifiants numériques dans les expériences d’achat courantes est particulièrement déconcertante, suggérant que la technologie pourrait être utilisée pour surveiller le comportement des consommateurs et éroder davantage la vie privée.

En outre, le projet de l’Union européenne de relever les empreintes digitales de tous les voyageurs d’ici 2025, y compris ceux en provenance de pays exemptés de visa comme les États-Unis, renforce la surveillance croissante des technologies d’identification numérique. Selon les critiques, ces mesures représentent un changement important dans la manière dont les gouvernements gèrent les données personnelles et la vérification de l’identité, avec de graves conséquences pour les libertés civiles.

Le débat sur le système d’identification numérique souligne la tension actuelle entre la commodité gouvernementale et les droits individuels à l’ère numérique. L’introduction du système d’identification numérique au Royaume-Uni reflète une tendance mondiale plus large vers la gestion de l’identité numérique.

Alors que le gouvernement affirme que cette technologie améliorera l’efficacité et la sécurité, ses opposants craignent qu’elle marque le début d’un État de surveillance, compliquant encore davantage la relation entre les gouvernements et leurs citoyens.

Les sources incluent :

InfoWars.com

Express.fr

Telegraph.co.uk

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Google affirme avoir accédé à des « univers parallèles » grâce à son nouveau supercalculateur

La percée de Google dans le domaine de l’informatique quantique, réalisée lundi, a poussé le physicien qui dirige le projet à croire en « l’idée que nous vivons dans un multivers ».

Généré par IA

« Willow », la nouvelle puce quantique du géant de la technologie, a résolu un problème de calcul complexe qui aurait pris aux meilleurs superordinateurs actuels environ 10 septilliards d’années pour le résoudre, soit bien plus que l’âge de notre univers tout entier.

Mais Google a déclaré que son nouvel ordinateur quantique a résolu le casse-tête « en moins de cinq minutes ».

Qualifiant la performance de Willow d’« étonnante », le chef et fondateur de l’équipe Google Quantum AI, le physicien Hartmut Neven, a déclaré que son résultat à grande vitesse « donne du crédit à l’idée que le calcul quantique se produit dans de nombreux univers parallèles ».

Neven a attribué au physicien de l’Université d’Oxford David Deutsch le mérite d’avoir proposé la théorie selon laquelle le développement réussi de l’informatique quantique confirmerait, en effet, « l’interprétation des mondes multiples » de la mécanique quantique et l’existence d’un multivers.

En fait, à partir des années 1970, Deutsch est devenu un pionnier dans le domaine de l’informatique quantique, moins par intérêt pour la technologie elle-même que par désir de tester la théorie du multivers.

L’astrophysicien devenu écrivain scientifique Ethan Siegel a fustigé Google à propos de cette affirmation, les accusant de « confondre des concepts sans rapport, que Neven devrait également connaître ».

« Neven a confondu la notion d’espace de Hilbert mécanique quantique, qui est un espace mathématique de dimension infinie où « vivent » les fonctions d’onde de la mécanique quantique, avec la notion d’univers parallèles et de multivers », a soutenu Siegel vendredi.

Selon Siegel, aucune des interprétations dominantes des univers parallèles ou du multivers ne serait soutenue par un ordinateur quantique performant.

Dans une version, de nombreux univers parallèles existent dans l’espace lointain, à de vastes distances du nôtre et pourraient être le produit de leurs propres Big Bangs.

Dans un autre, chaque action dans notre univers crée une bifurcation dans l’espace-temps, conduisant à une infinité de lignes temporelles, chacune contenant l’un des infinités de mondes parallèles.

« La mécanique quantique peut fonctionner parfaitement, à la fois physiquement et mathématiquement, sans même introduire un seul univers parallèle », écrit Siegel dans son essai pour Big Think, « et encore moins un nombre infini d’entre eux. »

Néanmoins, Siegel a noté qu’il était impressionné par l’étonnante réussite technologique des résultats de Google avec Willow, qu’il a qualifié de « véritable excellent pas en avant dans le monde du calcul quantique ».

À tout le moins, l’ordinateur quantique révolutionnaire du géant des moteurs de recherche pourrait probablement aider l’humanité à créer son propre nouveau monde, aidant les scientifiques à trouver des solutions à certains des problèmes les plus vexants de la Terre.

« Cela inclut nous aider à découvrir de nouveaux médicaments, à concevoir des batteries plus efficaces pour les voitures électriques et à accélérer les progrès dans la fusion et les nouvelles alternatives énergétiques », a expliqué Neven dans un article de blog de Google.

« Beaucoup de ces applications futures qui changeront la donne ne seront pas réalisables sur des ordinateurs classiques ; elles attendent d’être débloquées grâce à l’informatique quantique », a-t-il noté.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

La Commission européenne a « ciblé illégalement des publicités ciblant les citoyens en utilisant des données personnelles sensibles », selon l’organisme de surveillance

La Commission européenne a perdu un procès devant le Contrôleur européen de la protection des données (CEPD), qui a jugé que la CE avait « illégalement ciblé des publicités sur des citoyens en utilisant des données personnelles sensibles liées à leurs opinions politiques ».

Généré par IA

La Commission européenne a perdu un procès devant le Contrôleur européen de la protection des données (CEPD), qui a jugé que la CE avait « illégalement ciblé des publicités sur des citoyens en utilisant des données personnelles sensibles liées à leurs opinions politiques ».

Pour cela, la CE a reçu un blâme.

Le superviseur a déclaré dans sa décision du 13 décembre qu’il avait constaté que « la Commission avait… traité illégalement les données personnelles du plaignant, y compris des catégories particulières de données personnelles, sans base juridique valable dans le cadre de la campagne publicitaire ciblée que la Commission a menée sur la plateforme de médias sociaux X du 15 au 28 septembre 2023. »

L’objectif principal de la réprimande du CEPD est de sensibiliser l’institution de l’Union européenne à sa violation du règlement et d’avoir un effet dissuasif.

Étant donné que la CE ne traite plus de données à caractère personnel, le CEPD a jugé que d’autres pouvoirs de correction, tels que les injonctions de conformité ou les limites de traitement, n’étaient pas adaptés.

L’ONG de protection de la vie privée noyb, financée par des dons et basée à Vienne, avait déposé une plainte contre la CE en 2023 pour ce qu’elle a qualifié de publicités ciblées de contrôle de chat.

Un porte-parole de noyb a déclaré à Brussels Signal : « Nous pensons que la décision du CEPD envoie un message fort aux autres autorités de protection des données et au-delà. La décision confirme que cibler les utilisateurs en fonction de leurs opinions politiques est clairement illégal.

« Malheureusement, ce type de ciblage est une pratique courante dans de nombreuses élections et doit également être combattu par les autorités nationales. La décision du CEPD constitue un bon précédent.

« Après cette décision, la Commission devrait définitivement s’abstenir de recourir à un tel microciblage. Dans le même temps, le CEPD aurait pu aller au-delà d’une réprimande et imposer une interdiction. Cependant, une amende était peu probable en raison du cadre juridique applicable aux institutions de l’UE. »

Un porte-parole de la Commission européenne a déclaré : « Nous prenons note de la décision du Contrôleur européen de la protection des données (CEPD) concernant la campagne de sensibilisation de la Commission à la proposition législative de la Commission visant à prévenir et à combattre le matériel pédopornographique en ligne. »

« Nous allons maintenant évaluer la décision du CEPD. »

Dans sa plainte, noyb accuse la Direction générale de la migration et des affaires intérieures de la Commission d’utiliser un micro-ciblage illégal sur X pour promouvoir son règlement de contrôle des discussions très critiqué : la proposition de la CE de scanner toutes les communications privées, prétendument pour arrêter la propagation de matériel d’abus sexuel sur mineur (CSAM).

Lorsque le débat a fait rage, la Commission européenne a été accusée d’avoir voulu influencer les opinions politiques aux Pays-Bas.

Pour obtenir l’adhésion de la population néerlandaise, l’organisme a utilisé des moyens illégaux, a déclaré Noyb, et le Contrôleur européen de la protection des données a approuvé.

Selon l’ONG, la Commission européenne n’était pas seulement « désespérée de recueillir le soutien du public, qui pourrait être utilisé pour faire pression sur les gouvernements nationaux afin qu’ils acceptent la proposition législative controversée », mais cette démarche « portait également atteinte aux procédures démocratiques établies entre les institutions de l’UE et violait le RGPD de l’UE ».

Les rapports sur les publicités ont montré que la CE ciblait les utilisateurs en fonction de leurs opinions politiques et de leurs croyances religieuses.

« Concrètement, les publicités n’étaient montrées qu’aux personnes qui n’étaient pas intéressées par des mots-clés comme #Qatargate, Brexit, Marine Le Pen, Alternative für Deutschland, Vox, Christian, Christian-phobie ou Giorgia Meloni », a déclaré noyb.

Tout cela, a-t-il ajouté, intervient alors que la CE « a déjà exprimé des inquiétudes concernant l’utilisation de données personnelles à des fins de micro-ciblage et a décrit cette pratique comme « une menace sérieuse pour un processus électoral juste et démocratique » ».

Pour aggraver encore les choses, la CE a utilisé ce qu’elle a qualifié de sondages d’opinion trompeurs.

Lorsque l’ONG a déposé sa plainte, Maartje de Graaf, avocate spécialisée dans la protection des données chez noyb, a déclaré : « Il est ahurissant que la Commission européenne ne respecte pas la loi qu’elle a contribué à institutionnaliser il y a quelques années à peine. De plus, X prétend interdire l’utilisation de données sensibles à des fins de ciblage publicitaire, mais ne fait rien pour faire respecter cette interdiction. »

La réprimande de la Commission européenne intervient peu de temps après la suspension des élections présidentielles en Roumanie en raison d’actions similaires prétendument perpétrées par des militants pro-russes.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Aller à l’accueil

Quad9 fait face à un recours judiciaire en France pour le blocage de son site à l’échelle mondiale

Quad9, un opérateur DNS suisse, fait face à des contestations judiciaires en France concernant des demandes de blocage de sites mondiaux, invoquant des problèmes de confidentialité et de droits d’auteur.

Généré par IA

Quad9 , opérateur mondial de DNS récursif public basé en Suisse , a annoncé qu’il faisait face à un défi juridique en France concernant la censure.

Celle-ci a été lancée par la chaîne de télévision Canal+ et fait suite à une tentative similaire en Allemagne par Sony Music, que Quad9 a pu résoudre en sa faveur à la fin de l’année dernière.

Canal+ a saisi la justice pour demander le blocage d’une liste de sites dans le monde entier, invoquant une violation de droits d’auteur. Quad9 a déclaré qu’elle était obligée d’obtempérer, un tribunal parisien ayant statué en faveur de l’entreprise française. Dans le cas contraire, Quad9 risque des amendes, mais a déclaré qu’elle ferait appel, malgré le coût élevé des batailles juridiques, et espère une fois de plus sortir vainqueur de cette affaire.

Un article de blog expliquait la nature des opérations de Quad9 et les circonstances entourant l’affaire, y compris celles relatives à la juridiction légale.

Quad9 qualifie la position adoptée par Canal+ d’« application absurde du droit d’auteur ». En effet, en tant que résolveur DNS récursif, le service, exploité par une association à but non lucratif, n’a pas de clients payants, ni de contrats et d’interactions avec les sites qu’il est désormais contraint de bloquer.

« Nous n’avons pas de méthodes de blocage géographique pour localiser l’activité de censure, car notre système est conçu pour traiter tout le monde dans chaque nation de manière identique », indique le blog, notant que cela est intentionnel, afin de préserver la confidentialité et de se conformer au RGPD et aux lois suisses sur la confidentialité des données.

Cependant, la Suisse et la France sont signataires de la Convention de Lugano, qui autorise les poursuites civiles transfrontalières. C’est ainsi que Quad9, bien qu’il n’ait pas de bureau ou de personnel en France, peut être poursuivi dans ce pays. L’ordonnance du tribunal français, puisque Quad9 n’est pas en mesure de bloquer sélectivement des sites dans certaines zones seulement, signifie que la loi française est effectivement appliquée à l’échelle mondiale.

Quad9 a déclaré que lui et d’autres opérateurs similaires sont « l’équivalent d’éditeurs de cartes : nous permettons aux utilisateurs de savoir où trouver des ressources, en utilisant un ensemble de données accessible au public (le DNS) à partir duquel créer la « carte » », et a ajouté que « n’importe qui peut configurer lui-même un résolveur récursif DNS en quelques secondes seulement ».

Ce qui distingue Quad9 est l’inclusion d’une protection contre les logiciels malveillants et le phishing, dont les sites actuellement bloqués seront privés – quelque chose que Quad9 note comme étant à l’opposé de ce que l’on attend des gouvernements et des forces de l’ordre.

Le message mentionne également que Canal+ a présenté des demandes de blocage de sites à d’autres – Vercara a reçu les mêmes demandes que Quad9, tandis que Google, Cloudflare, Cisco et d’autres ont été confrontés à des défis similaires, ce qui a conduit Cisco à quitter le marché DNS français.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil