Bluesky censure 72 comptes en Turquie sous la pression du gouvernement

La promesse de Bluesky d’un havre de paix sans censure s’effondre alors que les utilisateurs en Turquie se bousculent pour un accès non censuré via des applications tierces.

2–3 minutes

Bluesky, la plateforme sociale autrefois censée être un sanctuaire pour la liberté d’expression , a commencé à se plier aux exigences du gouvernement. Malgré une faille qui permet encore à certains utilisateurs de passer entre les mailles du filet, la décision du réseau de censurer à la demande des autorités turques a suscité des inquiétudes quant à la capacité de sa fondation à lutter contre la censure comme elle l’avait promis.

Un rapport a récemment révélé que Bluesky avait accepté de restreindre l’accès à 72 comptes en Turquie. Désormais, les utilisateurs du pays sont privés de ces voix. Parmi eux, 59 comptes ont été censurés au nom de la protection de la « sécurité nationale et de l’ordre public », tandis que 13 autres comptes, ainsi qu’au moins une publication, ont été masqués.

Pour une plateforme qui a attiré de nombreux Turcs fuyant la censure excessive d’autres pays, la décision de Bluesky de se plier à la pression du gouvernement turc est perçue comme une trahison. Les utilisateurs se demandent désormais si les promesses d’ouverture de la plateforme ont été sincères.

Le problème vient de l’application officielle de Bluesky, qui propose des paramètres de modération au niveau de l’utilisateur, mais ne permet pas de se soustraire au système de censure centralisé de l’entreprise. Une partie importante de ce système repose sur des étiquetages géographiques, dont un récemment déployé spécifiquement pour la Turquie, qui masque automatiquement le contenu ciblé à l’intérieur du pays.

Si vous utilisez l’application officielle de Bluesky et que l’entreprise décide de bloquer du contenu en fonction de votre localisation, vous êtes bloqué. Il n’existe aucun moyen officiel de consulter les comptes ou publications censurés.

Plus :  Les censeurs de l’UE visent Bluesky

Néanmoins, l’architecture sous-jacente de Bluesky offre une échappatoire, du moins pour l’instant. Basé sur le protocole AT, Bluesky prend en charge un réseau d’applications tierces, collectivement appelé Atmosphère, où la modération peut être gérée différemment, voire ignorée.

Étant donné que la censure est appliquée au niveau client via des étiquetteurs géographiques, et que les comptes restreints ne sont pas bannis des serveurs et relais Bluesky, les applications indépendantes peuvent toujours y accéder. Des applications comme Skeets, Ouranos, Deer.social et Skywalker, qui n’ont pas adopté d’étiquetteurs de modération géographique, permettent aux utilisateurs turcs d’accéder au contenu bloqué par l’application officielle.

Cependant, cette solution de contournement est fragile.

La plupart des développeurs tiers n’ont pas volontairement résisté à la censure. L’ajout d’étiquettes géographiques nécessiterait plutôt du codage supplémentaire, et leurs applications passant inaperçues grâce à une base d’utilisateurs plus restreinte, les développeurs voient peu de raisons immédiates de s’y conformer.

Mais si l’une de ces applications devenait suffisamment importante, elle pourrait facilement devenir la cible de pressions gouvernementales, ou risquer d’être retirée des boutiques d’applications comme celle d’Apple si elle refuse d’appliquer les exigences de censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Brave lance Cookiecrumbler, un outil qui détecte et corrige les pop-ups de cookies gênants

L’approche plus intelligente et spécifique au site de Cookiecrumbler promet un avenir où le rejet des cookies signifie réellement ce que les utilisateurs pensent.

2–3 minutes

Brave a annoncé l’open source de Cookiecrumbler, un outil conçu pour la détection automatique « intelligente » des avis de consentement aux cookies sur les sites Web à travers le Web en déployant des LLM open source, a annoncé l’équipe de confidentialité de Brave.

Outre la détection de ces notifications, Cookiecrumbler propose également des correctifs. Les développeurs de l’outil indiquent qu’ils étudient actuellement les moyens d’intégrer Cookiecrumbler au navigateur Brave, mais que cela sera possible après une analyse complète de la confidentialité.

Le fait que l’expérience utilisateur soit « peu conviviale » – c’est-à-dire ennuyeuse – est le moindre des problèmes des fenêtres contextuelles de consentement aux cookies, qui sont censées permettre aux utilisateurs de choisir comment et s’ils sont suivis et profilés.

Mais Brave affirme que les avis eux-mêmes peuvent nuire à la vie privée, citant des recherches indiquant que même lorsqu’un utilisateur choisit de « rejeter tous les cookies », de nombreux systèmes sont censés garantir qu’ils « continuent de suivre les personnes ».

Étant donné que le navigateur Brave, axé sur la confidentialité, bloque par défaut le suivi par des tiers, les fenêtres contextuelles deviennent inutiles. Cependant, la manière dont elles sont bloquées est importante, car certaines implémentations peuvent entraîner la rupture de la fonctionnalité des pages Web, en particulier lorsque le bloqueur utilise des règles génériques.

Cookiecrumbler, d’autre part, vise à fournir un blocage spécifique au site sur Internet et dans différents emplacements et langues dans lesquels les avis de consentement aux cookies apparaissent – c’est pourquoi les LLM sont utilisés dans l’automatisation de la détection comme moyen de gérer l’ampleur du travail.

Les créateurs de cet outil affirment également que le faible coût et l’efficacité de cette approche permettent également de recourir à des examinateurs humains, qui recherchent les faux positifs.

Cookiecrumbler détecte les principaux sites Web en utilisant des listes accessibles au public et déploie un script d’exploration pour déterminer s’ils utilisent des avis de consentement aux cookies.

La liste résultante des sites Web qui le font est ensuite publiée dans le nouveau référentiel GitHub de l’outil.

Outre le blocage des trackers, Brave bloque également les notifications par défaut. La différence avec Cookiecrumbler intégré réside dans une automatisation plus efficace, compte tenu de l’ampleur de la tâche, et dans la détection des fenêtres contextuelles de consentement nouvelles ou modifiées.

Les développeurs de Cookiecrumbler affirment que depuis son lancement lors de l’Ad Filtering Dev Summit en 2024, l’outil produit moins de casse et moins de faux positifs tout en élargissant le nombre de langues et la couverture géographique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Google annule ses plans de confidentialité et continuera d’autoriser le suivi par des tiers dans Chrome

La décision de Google maintient en vie le vieux modèle de l’industrie publicitaire, laissant une fois de plus le choix de l’utilisateur de côté.

2–3 minutes

Si certains utilisateurs de Chrome pensaient que Google pourrait placer leur vie privée et leur sécurité au-dessus des siennes ou de celles du reste de l’industrie publicitaire, ils pourraient être déçus d’apprendre que le géant a décidé de continuer à autoriser les sociétés de technologie publicitaire à cibler les utilisateurs via des cookies tiers.

La « promesse » faite précédemment par Google était de supprimer progressivement ces cookies et de redéfinir ainsi la publicité en ligne.

Mais, écrivant cette semaine sur le blog Privacy Sandbox , le vice-président de l’initiative, Anthony Chavez, a déclaré que depuis l’été dernier, lorsque la « nouvelle approche » a été annoncée, des discussions ont eu lieu avec les éditeurs, les développeurs, les régulateurs et l’industrie publicitaire.

Les résultats de ces discussions sont décrits comme produisant des « perspectives divergentes » – et désormais les fichiers de suivi continueront d’être utilisés dans Chrome, tandis que le projet d’introduire des invites autonomes qui auraient permis aux utilisateurs de bloquer les cookies tiers a été abandonné.

Google a mis en place Privacy Sandbox en déclarant vouloir résoudre les problèmes de confidentialité, mais en tenant toujours compte de la meilleure façon de « servir » l’industrie publicitaire. Malgré cela, la dernière décision d’annuler les plans de cookies tiers du projet est considérée comme un changement de politique majeur.

Les cookies tiers sont utilisés dans la publicité numérique pour suivre les utilisateurs sur le Web, permettant ainsi une publicité ciblée et un contenu personnalisé.

La mention par Chavez de « perspectives divergentes » et de la manière dont cela semble avoir influencé la décision sur la question intervient après que Privacy Sandbox soit devenu la cible de critiques de divers côtés, y compris des annonceurs et des régulateurs (qui soupçonnent que l’intention de Google était simplement de se donner un avantage).

Cela se reflète dans la position adoptée par l’EFF, qui a conseillé de se retirer du Privacy Sandbox, car les plans de cookies tiers désormais abandonnés n’auraient pas mis fin au suivi des utilisateurs, puisque Google aurait continué à le faire pour sa « publicité comportementale ».

Les internautes souhaitant éviter d’être suivis par Google ou ses partenaires tiers du secteur peuvent utiliser d’autres navigateurs. Cependant, la part de marché considérable de Chrome signifie que ce privilège sera réservé à un nombre relativement restreint de personnes.

Pendant ce temps, Chavez a eu quelques mots de consolation pour les utilisateurs de Chrome : « Nous continuerons à améliorer les protections contre le suivi dans le mode Incognito de Chrome, qui bloque déjà les cookies tiers par défaut. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Singapour ordonne la suppression des publications Facebook des étrangers en vertu de nouvelles règles électorales

SINGAPOUR, 26 avril (Reuters) – Singapour a ordonné à la société mère de Facebook, Meta (META.O), de bloquer l’accès des Singapouriens aux publications de trois étrangers accusés d’avoir tenté d’influencer une élection nationale au début du mois prochain sur des bases raciales et religieuses. Deux des personnes dont les publications ont été bloquées ont rejeté les accusations.

2–4 minutes
Des figurines avec des ordinateurs et des smartphones sont visibles devant le logo Facebook dans cette illustration prise le 19 février 2024. REUTERS/Dado Ruvic/Illustration/Photo d’archives

L’Autorité de développement des médias Infocomm a émis ces ordres après que certains messages des étrangers ont été considérés comme « destinés à promouvoir ou à porter préjudice au succès électoral ou à la position d’un parti politique ou d’un candidat », ont déclaré vendredi le Département des élections et le ministère de l’Intérieur dans un communiqué.

Les élections du 3 mai dans la cité-État d’Asie du Sud-Est , les premières sous les règles des médias sociaux mises en place par le gouvernement en 2023, seront presque certainement dominées par le Parti d’action populaire, qui a remporté le plus grand nombre de sièges à chaque vote depuis l’indépendance en 1965.Les règles interdisent aux étrangers de publier des publicités électorales en ligne, définies comme des contenus en ligne susceptibles d’aider ou de nuire à des partis politiques ou à des candidats.

La déclaration de vendredi a identifié les étrangers comme étant Iskandar Abdul Samad, trésorier national du parti islamiste Parti Islam Se-Malaysia ; Mohamed Sukri Omar, chef de la jeunesse du parti dans l’État malaisien de Selangor ; et l’utilisateur de Facebook « Zai Nal », identifié comme Zulfikar bin Mohamad Shariff, un Australien qui a renoncé à sa citoyenneté singapourienne en 2020.

Iskandar avait exprimé son soutien au parti d’opposition Faisal Manap dans une publication sur les réseaux sociaux.Les autorités ont découvert que Zulfikar avait accusé des députés malais-musulmans de ne pas représenter les intérêts musulmans, affirmant que Singapour n’avait pas besoin d’un autre député malais qui ne défendrait pas leurs opinions. Sukri avait republié le message de Zulfikar.

Le gouvernement a déclaré que leurs publications interféraient avec la politique intérieure et incitaient les citoyens à voter en fonction de critères raciaux et religieux.

Dans une publication Facebook publiée samedi à propos des démantèlements, Sukri a déclaré qu’il n’avait jamais eu l’intention d’interférer avec les élections à Singapour.« Mes appels et mes préoccupations n’ont jamais eu pour but d’intervenir dans les affaires électorales, mais découlent plutôt de ma responsabilité morale en tant que musulman et en tant que personne profondément préoccupée par le sort de la communauté malaise-musulmane à Singapour, une communauté de plus en plus marginalisée dans divers aspects, que ce soit dans l’éducation, l’économie ou la liberté culturelle », a-t-il déclaré.

En réponse à la demande de retrait, Zulfikar a déclaré sur Facebook que cette action démontrait la « peur » du PAP au pouvoir et de ses partisans et que « le désespoir était palpable ». Il a annoncé la création d’un compte WhatsApp et d’un autre site web pour défendre ces causes.

Le Parti des travailleurs, parti d’opposition, a déclaré samedi dans un communiqué qu’il n’exerçait aucun contrôle sur les partis étrangers qui soutenaient ses candidats. Il a ajouté que Faisal avait insisté sur la nécessité de « tenir la religion à l’écart, ou de la tenir à l’écart de la politique, afin qu’elle ne soit pas instrumentalisée à des fins personnelles ou au profit d’un quelconque parti politique ».

Le PAP n’a pas immédiatement fait de commentaire. Meta, Iskandar et le Parti Islam Se-Malaysia n’ont pas répondu aux demandes de commentaires.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Les contrôles d’âge obligatoires prévus par les nouvelles règles de l’Ofcom rapprochent le monde d’un système d’identification numérique de facto pour les utilisateurs d’Internet.

L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.

2–3 minutes

L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.

Les projets de codes de pratique ont été mis à la disposition des membres du Parlement jeudi et, si le processus est mené à bien comme prévu, les nouvelles règles seront appliquées à partir du 25 juillet.

Avant cela, le 24 juillet est la date limite pour que les entreprises réalisent et enregistrent les évaluations des risques que leurs plateformes peuvent présenter pour les mineurs. (Ceci s’applique à la plupart des services en ligne comptant plus de sept millions d’utilisateurs actifs mensuels en moyenne au Royaume-Uni).

Selon l’Ofcom, ces mesures s’appliquent aux applications et sites utilisés par les enfants, comme les réseaux sociaux, les jeux et les services de recherche. L’objectif est d’empêcher les mineurs d’accéder à des contenus « liés » au suicide, à l’automutilation, aux troubles alimentaires, à la pornographie, aux contenus misogynes, aux contenus violents et au cyberharcèlement.

Même si les mesures sont vastes dans leur objet et leur nature, un certain nombre de critiques qui favorisent une approche encore plus restrictive – parmi lesquels l’association caritative pour enfants NSPCC – souhaitent que l’Ofcom étende cette initiative, notamment dans le sens d’un affaiblissement du cryptage de bout en bout dans les applications de messagerie.

En l’état actuel des choses, les nouvelles règles font de la vérification de l’âge un outil visant à empêcher les mineurs d’accéder aux services qui génèrent ou partagent des contenus répertoriés par l’Ofcom, et ce grâce à la mise en œuvre d’une « assurance d’âge hautement efficace ». Cela concerne à la fois les services dont « la plupart » – mais aussi « une partie » – des contenus relèvent des catégories préjudiciables.

Si les plateformes qui incluent des recommandations algorithmiques sont considérées comme présentant un « risque moyen ou élevé » de contenu préjudiciable (tel que défini), elles doivent alors disposer de filtres qui masqueront ce contenu.

Les autorités britanniques exigent des plateformes qu’elles agissent rapidement pour supprimer tout ce qui s’avère nuisible une fois que cela a été « examiné et évalué ».

Les sanctions en cas de non-conformité peuvent atteindre 18 millions de livres sterling (24 dollars américains) ou 10 % du chiffre d’affaires mondial. Si ces violations persistent, les tribunaux pourraient bloquer ou limiter l’accès aux plateformes incriminées au Royaume-Uni.

La directrice de l’Ofcom, Melanie Dawes, a fait la promotion des nouvelles règles dans les médias en faisant référence à la série fictive Adolescence de Netflix , afin de justifier les règles restrictives.

« Je pense qu’en fin de compte, ce qui se passe ici, et pas seulement au Royaume-Uni, c’est simplement un changement dans la façon dont les gens perçoivent tout cela. Que ce soit le drame « Adolescence », qui a mis en lumière certains des problèmes de misogynie, de pornographie et de contenu violent sur les réseaux sociaux de nos enfants », a déclaré Dawes à l’émission Today de la BBC.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Apple et Meta condamnés à une amende en vertu de la loi européenne sur les marchés numériques dans le cadre d’une action coercitive historique

Les premières amendes infligées par l’UE dans le cadre du DMA marquent une nouvelle phase.

2–4 minutes

Apple et Meta sont devenus les premiers géants de la technologie à faire face à des sanctions en vertu de la loi historique sur les marchés numériques (DMA) de l’Union européenne, signalant un changement majeur dans la manière dont Bruxelles applique les règles de concurrence numérique.

Mercredi, la Commission européenne a révélé qu’Apple avait été condamnée à une amende de 500 millions d’euros pour violation des dispositions du DMA relatives aux activités des boutiques d’applications. Meta a reçu une amende de 200 millions d’euros pour son modèle publicitaire « pay or consent », qui demande aux utilisateurs d’accepter des publicités personnalisées ou de payer pour un accès sans publicité à Instagram et Facebook.

Outre la sanction financière, Apple a reçu une ordonnance de cessation et d’abstention et s’est vu imposer une date limite de fin juin pour mettre en œuvre d’autres changements. En cas de non-respect, l’entreprise risque des amendes journalières supplémentaires. Les autorités de régulation évaluent encore la réponse de Meta aux préoccupations exprimées, notamment aux changements apportés vers la fin de l’année dernière.

Comparées aux sanctions antitrust précédentes, les amendes imposées par la DMA sont moins élevées. En 2023, Apple a été condamnée à payer 1,8 milliard d’euros pour avoir limité la concurrence dans le streaming musical, tandis que Meta a écopé d’une amende de 797 millions d’euros pour avoir privilégié son propre service de petites annonces sur ses plateformes.

Selon un haut fonctionnaire de l’UE, ces amendes initiales reflètent le stade précoce de l’application de la DMA et le fait que Meta a mis fin à la pratique contestée peu de temps après qu’elle ait été soulevée.

Au total, cinq décisions relatives au DMA ont été rendues mercredi. Bien que les deux entreprises aient été sanctionnées, elles ont également bénéficié d’un allègement partiel. La Commission a clos une enquête distincte sur la gestion des navigateurs et des applications par défaut par Apple, invoquant des améliorations qui ont stimulé la concurrence pour des entreprises comme Mozilla. Meta a bénéficié du retrait de Facebook Marketplace de la liste des services couverts par le DMA, réduisant ainsi l’influence du règlement sur ses activités.

Parallèlement, Apple fait l’objet d’une nouvelle surveillance concernant sa gestion de l’accès aux marchés d’applications alternatifs. La Commission a publié des conclusions préliminaires à ce sujet, qui pourraient éventuellement donner lieu à des amendes supplémentaires si l’enquête se poursuit.

Commentant cette mesure coercitive, la commissaire européenne à la Concurrence, Teresa Ribera, a déclaré : « Apple et Meta ne se sont pas conformées au DMA en mettant en œuvre des mesures qui renforcent la dépendance des utilisateurs professionnels et des consommateurs à leurs plateformes. Par conséquent, nous avons pris des mesures coercitives fermes mais équilibrées à l’encontre des deux entreprises, fondées sur des règles claires et prévisibles. »

Apple a annoncé son intention de faire appel de la décision. Dans un communiqué, une porte-parole a qualifié cette décision de « nouvel exemple de la façon dont la Commission européenne cible injustement Apple ». Elle a ajouté : « Malgré d’innombrables réunions, la Commission continue de modifier les règles du jeu à chaque étape. »

Joel Kaplan, directeur des affaires mondiales de Meta, s’est fermement opposé à cette décision, la qualifiant de « taxe de plusieurs milliards de dollars » qui porterait préjudice aux économies européennes. « La Commission européenne tente de désavantager les entreprises américaines prospères tout en permettant aux entreprises chinoises et européennes d’opérer selon des normes différentes », a-t-il déclaré.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Bruxelles redouble d’efforts en matière de censure sur les réseaux sociaux

Von der Leyen a averti X et Meta que l’UE appliquerait ses règles de désinformation, quel que soit le PDG ou ce que dit Washington.

3–5 minutes

Dans une attaque claire contre les entreprises de médias sociaux basées aux États-Unis qui ont mis la liberté d’expression sur leurs bannières et se sont alliées à l’administration Trump – Meta et X – la présidente de la Commission européenne, Ursula von der Leyen, a averti que Bruxelles ne laisserait pas les entreprises technologiques mondiales s’en tirer en ignorant les règles de modération de contenu établies dans le tristement célèbre outil de censure de l’UE, le Digital Services Act (DSA) – quel que soit l’endroit où elles se trouvent ou qui les gère.

« Les règles votées par nos colégislateurs doivent être appliquées », a déclaré von der Leyen à Politico lundi 22 avril.

« C’est pourquoi nous avons ouvert des poursuites contre TikTok, X, Apple, Meta, pour n’en citer que quelques-uns », a-t-elle ensuite poursuivi, avant d’affirmer que le parti pris politique n’avait rien à voir avec l’application du DSA par Bruxelles :

Nous appliquons les règles de manière juste, proportionnelle et impartiale. Peu importe l’origine d’une entreprise ou son dirigeant. La protection des personnes est notre priorité.

S’il est vrai que toutes ces entreprises sont confrontées à des mesures punitives de la part des régulateurs de l’UE à des degrés divers, dans la plupart des cas, l’UE n’a jusqu’à présent infligé que des amendes « modestes » de quelques millions d’euros, et principalement pour non-respect du Digital Markets Act (DMA), et non du DSA, beaucoup plus sinistre.

Cependant, le cas du X d’Elon Musk est différent, ce qui contredit entièrement l’argument de « l’absence de parti pris politique ». 



Nous avons rapporté plus tôt ce mois-ci que Bruxelles s’apprêtait à imposer une amende sans précédent d’un milliard d’euros à l’entreprise à l’issue d’une enquête en cours sur ses violations présumées de la DSA qui a débuté en 2023, juste après que Musk a acheté le site Web et l’a transformé en une pierre angulaire de la liberté d’expression en ligne.

Plus précisément, l’affaire porte sur le refus de X de contrôler et de censurer les contenus « illégaux » – tout ce qui est considéré comme « nuisible » ou « désinformation » par Bruxelles – ainsi que de partager ses données avec des acteurs externes, tels que des chercheurs, des régulateurs ou des « vérificateurs de faits ». Des choses raisonnables, compte tenu des révélations des Twitter Files , que beaucoup semblent avoir oubliées.

Meta pourrait bientôt être confronté à une situation similaire, car il est frappé par les mêmes critiques de Bruxelles depuis que Mark Zuckerberg a abandonné ses vérificateurs de faits pour être politiquement biaisés et exécuter la volonté du Parti démocrate et des différentes agences de renseignement américaines dans leur modération de contenu. 

En d’autres termes, les entreprises américaines qui ont activement travaillé à restaurer et à protéger la liberté d’expression sont désormais contraintes par Bruxelles de permettre aux vérificateurs de faits de l’UE (les mêmes organisations qui ont été évincées par Zuckerberg) de reprendre leur précédent travail de censure dans le cadre du DSA.

Même si von der Leyen agit comme si tous les géants mondiaux de la technologie étaient traités de la même manière à Bruxelles, les principaux partis de la « coalition Ursula » du Parlement européen ont clairement indiqué plus tôt cette année que leur problème concernait spécifiquement les « oligarques de la technologie » qui se sont alignés sur le président Trump. 

De plus, la prétendue désinformation qui se propage sur X et Meta a été citée comme l’une des principales raisons pour lesquelles l’UE travaille sur le soi-disant Bouclier démocratique , une boîte à outils supplémentaire pour aider à contrôler le contenu en ligne et à faire respecter les règles DSA existantes.

La position de plus en plus agressive de l’UE à l’égard des plateformes axées sur la liberté d’expression (et des entreprises américaines en général) n’a pas échappé à l’attention de l’administration Trump. En février dernier, le vice-président J.D. Vance a dénoncé l’insistance de l’UE sur la censure politique , tandis que le ciblage « injuste » des géants technologiques américains est au cœur du conflit commercial qui s’intensifie entre Washington et Bruxelles.

Compte tenu de tout ce qui s’est passé depuis l’arrivée de Trump au pouvoir, l’affirmation de von der Leyen selon laquelle l’application de la loi DSA n’est pas politique est tout simplement ridicule. Peut-être devrait-elle commencer à vérifier elle-même les faits la prochaine fois.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Microsoft élargit son outil de rappel basé sur l’IA, qui enregistre et indexe l’activité des utilisateurs.

Une machine à mémoire intégrée déguisée en commodité, Recall transforme silencieusement chaque moment passé devant votre clavier en un historique consultable.

2–3 minutes

La nouvelle initiative de Microsoft pour déployer Recall , une fonctionnalité alimentée par l’IA dans Windows 11 qui enregistre automatiquement l’activité des utilisateurs toutes les quelques secondes, ravive de profondes inquiétudes parmi ceux qui se concentrent sur la confidentialité numérique et la sécurité personnelle.

Initialement suspendu suite à une vague de réactions négatives l’année dernière, Recall est discrètement revenu dans une version préliminaire de Windows 11 (Build 26100.3902), désormais disponible pour certains testeurs. L’outil prend des instantanés de l’écran de l’utilisateur à intervalles réguliers et crée une chronologie consultable de tout, de l’utilisation des applications aux sites web visités et aux documents consultés. Si Microsoft présente cet outil comme un outil pratique, les défenseurs de la vie privée y voient un mécanisme de surveillance déguisé.

L’entreprise affirme que l’outil est sûr. Il nécessite l’inscription à Windows Hello pour accéder aux captures d’écran enregistrées. Microsoft décrit cette fonctionnalité comme un moyen de « trouver et d’accéder rapidement à n’importe quelle application, site web, image ou document, simplement en décrivant son contenu ». Les utilisateurs, précise l’entreprise, peuvent mettre l’enregistrement en pause et choisir ce qui est sauvegardé.

Mais ces assurances sont dérisoires face à ceux qui mettent en garde contre les conséquences plus larges. Le fait que Recall soit une option n’empêche pas l’exposition des données de personnes qui ne l’ont jamais activée. Si une personne ayant activé Recall reçoit une photo, un message ou un document confidentiel, celui-ci sera capturé, analysé et indexé en toute discrétion par l’outil, indépendamment de l’intention de l’expéditeur ou des outils de confidentialité utilisés.

La capacité de cette fonctionnalité à stocker et cataloguer des données de manière aussi exhaustive soulève de nombreuses questions juridiques, sécuritaires et éthiques. Les avocats, les gouvernements et les opérateurs de logiciels espions bénéficieraient d’un accès sans précédent à la vie numérique d’un utilisateur ; non pas par force brute ou par hameçonnage, mais grâce à un outil intégré qui crée un timelapse de l’activité informatique.

Pour ceux qui s’inquiètent de l’incursion croissante de l’IA dans l’informatique quotidienne, Recall est devenu un cas d’école. Ses détracteurs l’ont présenté comme faisant partie d’une tendance plus large où les entreprises intègrent des fonctionnalités d’IA à leurs plateformes existantes non pas pour servir les utilisateurs, mais pour favoriser l’engagement, la collecte de données ou la fidélisation.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


« Cyborg 1.0 » : le premier Robocop au monde doté de la reconnaissance faciale et d’une vision à 360°

Les débuts ont été annoncés via une publication Facebook par la police royale thaïlandaise.

by Tyler Durden ZeroHedge

2–3 minutes
Le robocop a des caméras à la place des yeux… Police royale thaïlandaise/Facebook

La Thaïlande a lancé le premier « Robocop » au monde conçu pour détecter et prévenir la criminalité grâce à une IA avancée .

Équipé de caméras à 360 degrés, ce cyborg de pointe assure une surveillance constante en temps réel.  Baptisé « Police Colonel Nakhonpathom Plod Phai » , ce qui signifie « Nakhonpathom est en sécurité », ce robocop  a été dévoilé mercredi lors du festival de Songkran, dans la province de Nakhon Pathom . Son lancement a été annoncé via une publication Facebook de la police royale thaïlandaise, selon un article  du Sun.

Le robocop est également capable de détecter les armes, telles que les couteaux et les matraques en bois.  En Chine voisine, des robots humanoïdes ont commencé à soutenir les patrouilles de police.

Rapports d’ingénierie intéressants  :

À Shenzhen, des robots PM01 développés par EngineAI ont été déployés aux côtés des policiers, portant des gilets de haute visibilité. Selon les médias locaux, ces robots ont été vus en train d’interagir avec les piétons : saluts, poignées de main et commandes vocales. Une vidéo récente montre un robot PM01 saluant une foule, suscitant la curiosité quant à son utilité dans le maintien de l’ordre.

Lancé pour la première fois en décembre 2024, le PM01 offre une mobilité agile, un écran tactile interactif et une plateforme open source. Cette conception permet aux développeurs du monde entier de contribuer à son évolution en ajoutant de nouvelles fonctionnalités et capacités grâce au développement secondaire.

L’année dernière,  Logon Technology, une entreprise chinoise de robotique, a dévoilé le robot sphérique autonome RT-G, qualifié de « progrès technologique », avec une armée de ces robots sphériques aperçus dans les villes chinoises,  selon The Sun.  Les débuts du robot soulignent l’importance croissante de la technologie robotique. Lors de la réunion générale du premier trimestre 2025 de Tesla, le PDG Elon Musk a révélé que l’entreprise se préparait à lancer la production de son propre humanoïde, Optimus, cette année.

« Cette année, nous espérons pouvoir fabriquer environ 5 000 robots Optimus », a déclaré Musk. « Techniquement, nous visons suffisamment de pièces pour en fabriquer 10 000, voire 12 000, mais comme il s’agit d’un produit totalement nouveau, avec un design totalement nouveau, je dirai que nous aurons réussi si nous parvenons à atteindre la moitié des 10 000. »

« Mais même 5 000 robots, c’est la taille d’une légion romaine, pour info, ce qui est un peu effrayant. Une légion entière de robots, je me dis : « Waouh ! » Mais je pense qu’on va littéralement construire une légion, au moins une cette année, et probablement dix l’année prochaine. Je trouve que c’est une unité plutôt cool, vous savez ? Des unités de légion. Donc probablement 50 000 l’année prochaine », a ajouté l’homme le plus riche du monde.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Un juge déclare que Google détient un « monopole » illégal sur la technologie de la publicité sur le Web

Google détient un monopole illégal sur certaines publicités sur le Web, a statué jeudi un juge fédéral, offrant une victoire au gouvernement fédéral qui a lancé le défi antitrust contre le géant de la technologie.

3–5 minutes

Si elle est maintenue, la décision pourrait réécrire l’économie de la publicité en ligne et affecter les résultats financiers des sites Web qui dépendent des publicités pour leurs revenus, ont déclaré les experts.

La juge fédérale Leonie Brinkema a estimé que Google était trop dominant en imposant ses règles sur le marché publicitaire. Dans un cas, Google était neuf fois plus grand que son concurrent le plus proche

« Google s’est volontairement livré à une série d’actes anticoncurrentiels pour acquérir et maintenir un pouvoir de monopole sur les marchés des serveurs publicitaires et des échanges publicitaires pour la publicité display sur le Web ouvert », a conclu le juge.

Elle a déclaré que la prochaine étape serait de déterminer les conséquences.

Cette décision constitue la deuxième défaite majeure de Google en matière de concurrence. L’année dernière, un autre juge fédéral avait jugé que Google maintenait un monopole illégal sur les recherches et la publicité par mots-clés et s’efforçait de devenir l’outil de recherche par défaut sur de nombreux appareils.

Le ministère de la Justice, dans cette affaire et dans celle du marché publicitaire, a soutenu que Google devrait être contraint de céder certaines parties de ses activités pour restaurer sa compétitivité.



Abigail Slater, procureure générale adjointe de la division antitrust du ministère de la Justice, a déclaré que la décision devrait servir d’avertissement aux plateformes qui ont censuré ou exclu des voix américaines.

« L’avis d’aujourd’hui confirme le contrôle exercé par Google sur la publicité en ligne et, de plus en plus, sur Internet lui-même », a-t-elle déclaré.

Lors d’un procès de trois semaines l’année dernière, le juge Brinkema a déclaré que les experts avaient expliqué la capacité de Google à exclure des concurrents potentiels de certains marchés publicitaires en ligne clés.

Elle a déclaré que les clients bénéficiaient d’une qualité de produit inférieure en raison du monopole de Google.

Le ministère de la Justice, rejoint par près de 20 États, a fait valoir que Google maintenait un monopole illégal sur trois marchés de la technologie publicitaire : le marché des serveurs publicitaires des éditeurs, qui gère l’inventaire publicitaire ; le marché des échanges publicitaires, qui organise des enchères pour placer des publicités ; et le marché des réseaux publicitaires des annonceurs.

Google a contesté ces divisions.

Le juge Brinkema a donné raison au gouvernement sur deux d’entre eux, mais a déclaré qu’il n’y avait pas de marché distinct de réseau publicitaire d’annonceurs et donc pas de monopole.

Google a considéré cela comme une sorte de victoire.

« Nous avons gagné la moitié de cette affaire et nous ferons appel de l’autre moitié », a déclaré Lee-Anne Mulholland, vice-présidente des affaires réglementaires de Google.

« Le tribunal a jugé que nos outils publicitaires et nos acquisitions, comme DoubleClick, ne nuisent pas à la concurrence. Nous sommes en désaccord avec la décision du tribunal concernant nos outils destinés aux éditeurs. Ces derniers ont de nombreuses options et choisissent Google car nos outils publicitaires sont simples, abordables et efficaces », a-t-elle déclaré.

Le Competitive Enterprise Institute, un groupe de défense du libre marché, a déclaré que les monopoles ont deux critères standard : des prix artificiellement élevés ou une offre artificiellement basse, et que le comportement de Google n’a déclenché aucun des deux.

« Si Google avait un monopole, il ne parvenait pas à en tirer profit », a déclaré Ryan Young, économiste senior au CEI.

La question est de savoir si Google fausse le marché du placement d’annonces auprès des éditeurs en ligne.

Le juge Brinkema a déclaré que Google utilisait DFP, sa plateforme permettant aux éditeurs de vendre leur espace publicitaire, pour accorder un traitement préférentiel à sa propre plateforme d’échange d’annonces, AdX.

Le juge Brinkema a conclu que cela équivalait à une augmentation artificielle des revenus et donnait à Google des informations privilégiées sur la manière dont les enchères d’espaces publicitaires fonctionnaient à un moment donné.

Lorsqu’une alternative à AdX est apparue en 2014, permettant aux éditeurs de solliciter des offres en temps réel auprès d’autres plateformes d’échange d’annonces, Google a riposté.

Le juge Brinkema a déclaré qu’il avait créé un outil qui poussait l’activité dans l’environnement DFP de Google et extrayait des frais pour les transactions effectuées en dehors d’AdX.

Google a également réduit les enchères des ventes sur les échanges non AdX.

L’un des principaux concurrents a signalé une baisse de 40 % de son chiffre d’affaires.

Bien que l’affaire ait été portée et plaidée sous l’administration Biden, le ministère de la Justice de Trump a célébré la victoire.

La procureure générale Pam Bondi a qualifié cela de « victoire historique dans la lutte en cours pour empêcher Google de monopoliser la place publique numérique ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Le projet de loi sur les médias sociaux du Colorado fait l’objet d’un examen minutieux en raison de préoccupations liées à la liberté d’expression et à la confidentialité.

Le projet de loi SB 25-086 du Colorado impose la transparence des politiques des médias sociaux et des suppressions d’utilisateurs plus rapides, en attendant la décision de Jared Polis.

2–3 minutes

Un autre État américain tente de promulguer une loi qui, selon les législateurs qui la parrainent et les citoyens qui la soutiennent, vise à éliminer les préjudices illégaux qui touchent les jeunes sur les réseaux sociaux.

Mais la manière dont le projet de loi SB 25-086 (Protections for Users of Social Media ) du Colorado propose de procéder à cette tâche n’a jusqu’à présent pas réussi à convaincre le gouverneur Jared Polis que la liberté, l’innovation et la vie privée seraient également protégées.

Polis, un démocrate, déclare désormais qu’il « examinera la version finale » du projet de loi avant de le signer, la presse locale le citant comme disant qu’il n’est « pas à l’aise avec le fait que le gouvernement force les sociétés privées de médias sociaux à agir comme forces de l’ordre ».

Le projet de loi a été adopté par l’Assemblée générale du Colorado la semaine dernière avec un soutien bipartisan, tandis que les partisans ont réagi à la réticence apparente du gouverneur à transformer le SB 25-086 en loi en convoquant une conférence de presse lundi, pour approuver une fois de plus le projet de loi et faire pression sur Polis pour qu’il le signe.

Le projet de loi SB 25-086 exige que les réseaux sociaux publient leurs politiques et établissent, dans les 72 heures, si un utilisateur les a violées. En cas de violation, la loi impose aux réseaux sociaux de radier les utilisateurs dans les 24 heures suivant une violation de politique ou de loi.

Une autre mesure du projet de loi SB 25-086 oblige les entreprises comptant au moins un million d’utilisateurs à fournir « un processus simplifié permettant aux forces de l’ordre du Colorado de contacter la société de médias sociaux qui exploite la plateforme de médias sociaux ».

De plus, « sous certaines conditions », ces réseaux sociaux seraient tenus de se conformer à un mandat de perquisition dans les 72 heures suivant sa réception. Et chaque année, ils seraient tenus de produire un rapport détaillant, en fournissant « certaines données », la manière dont les mineurs ont utilisé leurs plateformes.

Le résumé original du projet de loi indiquait que cela incluait « une description de toutes les expériences de produits menées sur 1 000 utilisateurs mineurs ou plus » – mais cela a maintenant été supprimé.

Un autre rapport annuel serait soumis au Département de la justice du gouvernement du Colorado, informant les autorités des politiques publiées et des violations de ces politiques.

Les promoteurs du projet de loi affirment que le texte trouve le juste équilibre entre la protection des mineurs mais aussi la garantie que les dispositions ne puissent pas être utilisées abusivement pour menacer la vie privée et la liberté d’expression ou pour discriminer.

Mais les opposants craignent que l’impact négatif du projet de loi SB 25-086 ne l’emporte sur ses effets positifs, notamment en ce qui concerne son efficacité, mais aussi les protections du Premier Amendement.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


L’administration Trump envisage d’interdire DeepSeek — Rapports

La Maison Blanche envisage de restreindre l’accès à DeepSeek, qui a déjà secoué le monde par sa rentabilité et sa puissance, rapporte le New York Times.

1–2 minutes

L’administration du président américain Donald Trump envisage d’imposer des restrictions à la société chinoise d’intelligence artificielle DeepSeek afin de l’empêcher d’acheter de la technologie américaine, a rapporté le journal The New York Times, citant des sources.Plus tôt cette semaine, le géant technologique américain Nvidia aurait déclaré que le gouvernement américain avait bloqué la vente de certaines puces d’IA à la Chine sans licence et commencerait à exiger une licence pour les ventes futures.

L’administration envisage également la possibilité d’interdire aux Américains d’accéder aux services de DeepSeek, indique le rapport publié mercredi.La pression américaine sur DeepSeek et Nvidia est causée par la crainte de Washington que la Chine puisse dépasser les États-Unis dans le domaine de l’intelligence artificielle, ce qui pourrait entraîner des conséquences de grande envergure pour la sécurité nationale et la géopolitique, ajoute le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Gab refuse de se conformer à la « tyrannie » de la censure britannique

Gab s’oppose à la tentative du Royaume-Uni d’instaurer une censure mondiale.

2–3 minutes

Gab, une plateforme de médias sociaux basée aux États-Unis et connue pour son engagement en faveur de la liberté d’expression, a pris la décision de couper l’accès aux utilisateurs au Royaume-Uni.

Cette décision fait suite à un ultimatum de l’autorité de régulation des communications du Royaume-Uni, Ofcom, exigeant des données sur les utilisateurs et les opérations internes de Gab, demandes que l’entreprise rejette catégoriquement comme étant autoritaires.

Plus :  Quand une île exige de museler le monde

Le PDG Andrew Torba a clairement exprimé sa position dans un message publié sur X : « Notre dernière lettre de menace de l’Ofcom nous a ordonné de divulguer des informations sur nos utilisateurs et nos opérations. Nous savons où cela mène : une censure forcée et des citoyens britanniques jetés en prison pour « propos haineux ». » Il a conclu avec force : « Nous refusons de nous soumettre à cette tyrannie. »

La décision de Gab est une réponse directe à la controversée loi britannique sur la sécurité en ligne (Online Safety Act ), un vaste cadre législatif introduit sous couvert de sécurité publique, mais largement décrié pour sa portée étendue et son potentiel à étouffer la dissidence. L’entreprise affiche désormais un avis de blocage aux visiteurs basés au Royaume-Uni, invoquant à la fois une portée excessive de la loi et une position de principe en faveur de la liberté d’expression.

Un avis affiché aux utilisateurs au Royaume-Uni reprend les mots de John Milton d’Areopagitica : « Donnez-moi la liberté de savoir, de m’exprimer et d’argumenter librement selon ma conscience, au-delà de toute liberté. » Il précise également qu’après avoir reçu « une nouvelle demande de la police de la liberté d’expression du Royaume-Uni », Gab a choisi de couper complètement l’accès.

En tant qu’entreprise américaine sans présence physique en Grande-Bretagne, Gab soutient que l’Ofcom n’a aucune légitimité juridique pour imposer la conformité. « Pour faire appliquer quoi que ce soit aux États-Unis, il faudrait une demande d’entraide judiciaire ou une commission rogatoire. Aucun tribunal américain ne va appliquer un régime de censure étranger. Le Premier Amendement l’interdit », peut-on lire dans le message.

Gab souligne également l’absurdité de la tentative de l’Ofcom de sanctionner une entreprise américaine qui a déjà bloqué l’accès au Royaume-Uni. L’entreprise y voit une illustration flagrante de la façon dont la censure se transforme inévitablement en une tentative de museler plutôt que de protéger. « La censure ne fonctionne pas. Elle ne fait que révéler la vérité sur les censeurs », affirme le communiqué.

Il ne s’agit pas d’une position isolée. Gab rejoint désormais d’autres plateformes comme BitChute en restreignant l’accès depuis le Royaume-Uni, encourageant ainsi d’autres entreprises américaines à faire de même en signe de protestation. Le message inclut un appel audacieux à rejeter ce qu’il qualifie d’autoritarisme déguisé en réglementation de sécurité : « La seule façon de voter contre la tyrannie du régime actuel du Royaume-Uni est de s’en détourner, de refuser de se conformer et de se réfugier sous l’abri inviolable du Premier Amendement. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


La Russie fait pression sur Google pour qu’il supprime plus de 200 applications VPN dans un contexte de censure numérique croissante.

La Russie inonde Google d’ordres de retrait destinés à étouffer l’anonymat en ligne.

2–3 minutes

Les efforts déployés par la Russie pour limiter la liberté numérique se sont intensifiés ces dernières semaines. Le régulateur russe d’Internet, Roskomnadzor, a ciblé plus de 200 applications VPN hébergées sur le Google Play Store. Entre le 12 mars et le 1er avril, le gouvernement russe a émis 214 demandes de retrait distinctes, concernant 212 applications VPN. Ces demandes représentent plus de 90 % de toutes les demandes de retrait d’applications adressées à Google pendant cette période.

Malgré cette campagne de pression, Google s’est largement abstenu d’obtempérer. Selon les données de GreatFire , seules six des 212 applications signalées ne sont plus disponibles sur le Play Store, ce qui témoigne d’une position relativement ferme contre les exigences de censure russe généralisées.

La vague de tentatives de suppression a débuté avec 47 demandes déposées le 12 mars, qui ont attiré l’attention de GreatFire, une organisation qui lutte contre la censure numérique. Dans le cadre de son projet de censure des applications, GreatFire a analysé 399 applications VPN et conclu que 87 %, soit 346 applications, restaient accessibles sur la version russe du Play Store. Si ce chiffre témoigne de la résistance de Google, la suppression des 13 % restants représente une concession inquiétante aux pressions autoritaires.

Au total, 53 applications VPN de l’échantillon ont été identifiées comme indisponibles en Russie. Parmi les six applications inaccessibles sur la liste des 212 ciblées, deux avaient déjà disparu du Play Store en 2023, une a disparu mi-2024, et la disponibilité des trois autres reste incertaine. Par ailleurs, six autres VPN ont disparu du Play Store à l’échelle mondiale. Les causes et la date de ces suppressions n’ont pas été précisées.

Au-delà des applications spécifiquement ciblées, GreatFire a également identifié 47 VPN indisponibles sans être nommés lors des récentes opérations de démantèlement. Parmi eux, 20 étaient déjà inaccessibles début 2024 ou avant.

La répression ne s’est pas limitée aux applications mobiles. Le Roskomnadzor a également émis des ordres de suppression d’URL contre Google Search en vertu de la loi russe sur les VPN. Le premier avis, daté du 10 mars, exigeait la suppression de plus de 40 600 URL. Un peu plus de deux semaines plus tard, une deuxième directive a listé plus de 43 000 URL supplémentaires à supprimer. Ces listes ne se limitaient pas aux contenus liés aux VPN. Selon les conclusions de GreatFire, les suppressions visaient également des contenus traitant de la guerre en Ukraine, de questions sociales, de poésie et de chansons.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Le projet secret d’IA « Prédiction des homicides » du gouvernement britannique suscite des comparaisons dans les rapports minoritaires et des inquiétudes en matière de surveillance.

Enfoui dans un jargon bureaucratique, le plan transforme discrètement les données sur les traumatismes et la santé en prévisions.

2–3 minutes

Il a été révélé que le gouvernement britannique est impliqué dans le développement d’un autre projet dystopique, celui-ci étant comparé aux concepts explorés dans Minority Report, car il implique une analyse basée sur des algorithmes pour « prédire un meurtre ».

Le « Projet de prédiction des homicides » du ministère de la Justice (MoJ) – comme il était connu lors de son lancement, mais désormais désigné par l’expression générique « partage de données pour améliorer l’évaluation des risques » – utilise des informations appartenant à 100 000 à un demi-million de personnes, dans le but de découvrir qui est « le plus à risque » de devenir un meurtrier.

Statewatch a découvert le projet, lancé sous le gouvernement de Rishi Sunak. L’organisation de défense des droits civiques a utilisé les demandes d’accès à l’information et a souligné qu’il s’agissait d’un programme (auparavant) secret, impliquant un accord entre le ministère de la Santé, la police du Grand Manchester (GMP) et la police métropolitaine de Londres.

En réponse au rapport , le gouvernement britannique a déclaré qu’il s’agissait uniquement d’une recherche, « à ce stade ». Statewatch cite l’un des trois documents FOIA qu’il a consultés, dans lequel le ministère de la Justice mentionne une future « opérationnalisation » de ce système.

Les données utilisées sont initialement collectées par la police et proviennent non seulement de criminels ou de suspects, mais aussi de victimes, de témoins, de personnes disparues et de « personnes pour lesquelles il existe des préoccupations en matière de protection ».

Cependant, le ministère de la Justice affirme que seules les données des personnes condamnées sont utilisées, affirmant que les autres catégories ne sont pas incluses.

En ce qui concerne le type d’informations traitées par « l’outil prédictif », outre les noms, les dates de naissance, les sexes, les ethnies et l’identifiant unique de l’ordinateur national de la police, il existe également des « marqueurs de santé ».

Ces informations couvrent les antécédents de santé mentale d’une personne et des détails tels que la dépendance, l’automutilation, le suicide, la vulnérabilité et le handicap.

L’association Big Brother Watch a réagi à la nouvelle de ce projet en déclarant que le fait que le gouvernement se donne la possibilité d’utiliser des machines pour prédire qui pourrait devenir un tueur est « alarmant ».

La directrice par intérim Rebecca Vincent a fait remarquer que même lorsqu’un crime a déjà été commis, les algorithmes et l’IA peuvent toujours produire des conclusions erronées basées sur des preuves.

Utiliser la même technologie et les mêmes techniques pour tenter de « prédire les crimes » qui pourraient finalement cibler des personnes innocentes comporte « d’énormes implications en matière de vie privée », a déclaré Vincent, appelant à l’abandon immédiat du projet, le qualifiant de « cauchemar des droits de l’homme rappelant la science-fiction qui n’a pas sa place dans le monde réel, et certainement pas dans une démocratie ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Une loi sur la surveillance vendue avec de douces assurances et de lourdes implications pour la vie privée numérique.

Le gouvernement autrichien a rejoint une liste croissante d’autorités dans des pays du monde entier qui recherchent activement des moyens d’imposer l’inclusion de portes dérobées de cryptage dans les applications de messagerie comme WhatsApp et Telegram, qui offrent des communications sécurisées.

2–3 minutes

La tendance anti-cryptage se poursuit, malgré les avertissements constants des experts en technologie et des défenseurs de la vie privée selon lesquels le cryptage ne peut pas être brisé d’une manière qui ne donne accès qu’aux « bons gars » comme les gouvernements et les forces de l’ordre tout en empêchant les acteurs malveillants d’entrer.

Mais lorsqu’il a évoqué plus tôt cette semaine un projet de loi visant à permettre la surveillance des communications jusque-là privées sur des applications cryptées, le ministre autrichien de l’Intérieur, Gerhard Karner (ÖVP), s’en est tenu au discours régulièrement répété selon lequel la police avait besoin d’un accès pour « égaliser les chances » tout en combattant « les terroristes et les extrémistes ».

Cette dernière définition semble couvrir les personnes qui se livrent à des « activités menaçant la Constitution ».

Malgré cette définition assez large, Karner a osé prédire que la police n’utiliserait pas les nouveaux pouvoirs importants proposés autrement que pour enquêter sur « quelques cas individuels par an ».

Sans entrer dans les détails de la manière dont il est arrivé à ce chiffre – ou comment une telle chose pourrait être prédite, à moins qu’il ne s’agisse simplement d’une tentative de minimiser l’opposition à de tels projets – le ministre a poursuivi en déclarant que les forces de l’ordre limiteraient leurs nouvelles capacités d’espionnage aux cas de suspicion de préparation d’une attaque terroriste, de formation de groupes terroristes – et « cela peut également être utilisé à des fins d’espionnage », a déclaré Karner.

Entre-temps, il a promis que « la population n’est pas affectée par cela ».

Autrement dit, la population doit faire confiance au gouvernement et à ses forces de l’ordre pour ne pas abuser à aucun moment de leur pouvoir d’accès et de lecture de leurs messages à des fins antidémocratiques comme la surveillance de masse.

Bien que ces craintes soient parfaitement raisonnables, le partenaire de coalition de Karner, le secrétaire d’État Jorg Leichtfried (SPO), les a rejetées, déclarant ne « voir aucun danger de surveillance de masse » découlant du projet de loi.

Au lieu d’entrer dans les détails des raisons pour lesquelles il en est ainsi, Leichtfried a continué à dire à « la population » ce qu’elle devrait ressentir, demandant en fait une confiance aveugle.

« La population doit avoir le sentiment que le pays devient plus sûr », a déclaré ce responsable.

Le troisième partenaire de la coalition au pouvoir, NEOS, n’est cependant pas entièrement d’accord.

Mais Karner pense que les deux autres partis parviendront à « convaincre » NEOS, au cours de la « longue période d’examen de huit semaines » du projet.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


«Elon Musk veut nous détruire», accuse le créateur de ChatGPT

Open AI a décidé de porter plainte contre le patron de X et Tesla, lui reprochant «une campagne acharnée» pour lui nuire après qu’il a connu le succès sans lui.

2–3 minutes

La star de l’intelligence artificielle OpenAI a déposé plainte à son tour contre le multimilliardaire Elon Musk, accusant son ancien cofondateur d’avoir mené une «campagne acharnée» pour nuire à l’organisation après qu’elle a connu le succès sans lui. La start-up qui a lancé ChatGPT fin 2022 souhaite obtenir une injonction pour mettre fin à «d’autres actions illégales et injustes» de M. Musk, ainsi qu’une indemnisation.

Dans les documents juridiques déposés mercredi devant un tribunal californien, OpenAI affirme que Musk est devenu hostile à l’égard de l’entreprise après l’avoir abandonnée, des années avant sa percée dans l’intelligence artificielle (IA) générative. «Musk ne pouvait pas tolérer d’assister au succès d’une société qu’il avait abandonnée et déclarée condamnée», a assené OpenAI.

Musk avait «abandonné» Open AI

Cette plainte est le dernier épisode en date d’une querelle acerbe entre la championne technologique et l’homme le plus riche du monde, qui a poursuivi OpenAI en justice l’année dernière, en l’accusant d’avoir trahi sa mission fondatrice. Dans sa contre-attaque, l’entreprise estime que Musk «a décidé de détruire OpenAI et de construire un concurrent direct qui serait plus avancé technologiquement – non pas pour le bien de l’humanité, mais pour Elon Musk».

Le patron de Tesla et SpaceX a fondé sa propre entreprise d’IA générative, xAI, en 2023, et a investi des dizaines de milliards de dollars pour concurrencer les autres grands acteurs du secteur.

OpenAI a été fondée en décembre 2015 en tant que laboratoire de recherche à but non lucratif ayant pour mission de veiller à ce que l’intelligence artificielle générale (AGI) – désignant une IA aussi intelligente que des humains – «profite à l’ensemble de l’humanité».

Elon Musk faisait partie des premiers bailleurs de fonds, aux côtés du patron actuel Sam Altman. Mais sa participation a été de courte durée, selon OpenAI. L’entreprise assure que Musk a quitté l’organisation après que ses dirigeants d’OpenAI ont refusé «de se plier à ses exigences sur le contrôle de l’entreprise ou, alternativement, son absorption dans Tesla».

OpenAI vaut aujourd’hui 300 milliards de dollars après son dernier tour de table de 40 milliards de dollars, la plus grosse levée de fonds jamais réalisée par une start-up non cotée. Mais OpenAI va devoir modifier ses statuts, pour se transformer en entreprise classique, tout en conservant l’organisation mère à but non lucratif.

OpenAI reproche à Elon Musk de lui nuire en présentant à tort ce changement de forme juridique comme une conversion totale, en multipliant les attaques dans la presse et sur son réseau social X où il compte plus de 200 millions d’abonnés et avec son «offre d’achat fictive pour les actifs d’OpenAI».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨


Le Sénat enquête sur Meta concernant une collaboration présumée avec la Chine et le projet de censure « Aldrin »

Une décennie de relations amoureuses avec Pékin menace de révéler les ambitions les plus secrètes de la Silicon Valley.

3–4 minutes

Les législateurs américains ont ouvert une enquête sur Meta Platforms suite à des allégations de longue date selon lesquelles la société aurait exploré des moyens de collaborer avec le gouvernement chinois afin de pénétrer le marché numérique fortement restreint du pays.

La sous-commission permanente des enquêtes du Sénat exige des documents et des communications internes datant de plus d’une décennie, y compris ceux liés à des efforts qui auraient impliqué des mécanismes de censure conçus pour se conformer aux exigences de Pékin.

L’enquête, annoncée mardi, est menée par le sénateur Ron Johnson, avec le soutien des sénateurs Richard Blumenthal et Josh Hawley. Dans une requête officielle adressée au PDG Mark Zuckerberg, les sénateurs demandent à Meta de lui remettre des documents d’ici le 21 avril. L’enquête porte sur toutes les interactions entre Meta et les responsables chinois, ainsi que sur les discussions de l’entreprise concernant ses stratégies d’entrée sur le marché.

Lettre du Comité sénatorial américain de la sécurité intérieure et des affaires gouvernementales, datée du 1er avril 2025, adressée à M. Mark Zuckerberg, PDG de Meta Platforms, Inc. Cette lettre, envoyée par courriel, fait état d'une enquête sur le développement présumé par Meta d'outils de censure destinés au Parti communiste chinois (PCC) pour pénétrer le marché chinois. Elle fait référence à des articles tirés du livre « Careless People » de Sarah Wynn-Williams et demande des informations avant le 21 avril 2025.
Nous avons obtenu une copie de la lettre complète pour vous ici .

Ce regain d’attention fait suite aux révélations publiées dans Careless People, les mémoires de Sarah Wynn-Williams, ancienne dirigeante de Facebook. L’ouvrage décrit une initiative secrète prétendument menée par Meta, appelée en interne « Projet Aldrin », qui aurait été élaborée en 2014 dans le cadre d’un plan triennal visant à établir une présence en Chine. Selon la lettre du Sénat, les documents internes de Meta examinés par la sous-commission corroborent le récit de Wynn-Williams.

Parmi les documents recherchés figurent des informations sur les filiales de Meta liées à la Chine, les lancements d’applications dans le pays, notamment des plateformes comme Colorful Balloons, Flash, Boomerang et MSQRD, ainsi que toute action entreprise par l’entreprise pour supprimer ou retirer du contenu à la demande de gouvernements étrangers. Les législateurs enquêtent également sur la tentative abandonnée de Meta d’établir un câble de données sous-marin reliant la Californie à Hong Kong.

Meta a fermement démenti ces allégations, les jugeant obsolètes et peu fiables. « Tout cela est imputable à un employé licencié il y a huit ans pour mauvaise performance. Nous n’exploitons plus nos services en Chine aujourd’hui. Ce n’est un secret pour personne que nous étions intéressés par cette initiative dans le cadre des efforts de Facebook pour connecter le monde », a déclaré un porte-parole de Meta. « Nous avons finalement décidé de ne pas donner suite aux idées que nous avions explorées, annoncées par Mark Zuckerberg en 2019. »

Malgré ces affirmations, le sénateur Blumenthal a déclaré que les documents internes examinés par la sous-commission suscitent de profondes inquiétudes. « Les documents alarmants des lanceurs d’alerte examinés par la sous-commission dressent un portrait accablant d’une entreprise qui censurerait, dissimulerait et tromperait pour accéder au marché chinois », a-t-il déclaré.

Les démarches juridiques de Meta pour faire taire Wynn-Williams ont alimenté la controverse. Le jour même de la publication de Careless People, l’entreprise a déposé une demande d’arbitrage, invoquant un accord volontaire de non-dénigrement qu’elle avait signé lors de son départ. Dans les 24 heures, un arbitre a émis une ordonnance de non-publication temporaire lui interdisant de tenir des « commentaires désobligeants, critiques ou autrement préjudiciables » à l’égard de Meta et de promouvoir le livre.

L’équipe juridique de Wynn-Williams a depuis fait pression pour faire annuler cette décision, arguant que l’ordonnance l’empêchait de répondre aux demandes de renseignements des membres du Congrès et des gouvernements étrangers. Ses avocats affirment que le silence imposé par l’arbitrage empêche l’accès à des témoignages clés sur le comportement des entreprises, qui ont des implications concrètes en matière de politique publique. Meta, pour sa part, a affirmé ne pas avoir l’intention de porter atteinte à ses droits.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Retour

Merci pour votre réponse. ✨