Le Département d’État américain condamne le gouvernement australien pour la censure des médias sociaux

Un activiste canadien devient le visage d’une confrontation sur la liberté d’expression alors que Washington dénonce le contrôle numérique de Canberra.

2–3 minutes

Le Département d’État américain a inclus l’Australie parmi les pays dont les gouvernements sont critiqués pour avoir soumis les plateformes de médias sociaux américaines à des exigences de censure des utilisateurs.

Dans le cas de l’Australie, les exigences reposent sur la promotion de programmes spécifiques basés sur le genre, en particulier les politiques liées aux personnes transgenres.

Le Bureau de la démocratie, des droits de l’homme et du travail du Département d’État a utilisé l’exemple d’un Canadien, Chris Elston (« Billboard Chris »), qui fait campagne contre le fait de soumettre les enfants à des bloqueurs de puberté, arguant qu’ils sont trop jeunes pour donner un consentement significatif à de telles procédures qui changent la vie.

« Le plus grand scandale de maltraitance d’enfants au monde actuellement », c’est ainsi qu’Elston décrit la situation.

Pour ce genre de position, Elston s’est retrouvé dans le collimateur du commissaire australien à la sécurité électronique .

Quand Elston s’est adressé à X pour s’opposer à la nomination par l’Organisation mondiale de la santé (OMS) d’un activiste transgenre au conseil consultatif sur la politique transgenre – et, peut-être pour aggraver les choses, a utilisé « le mauvais pronom » en faisant référence à l’Australien en question – le gouvernement australien a réussi à obtenir de X qu’il censure l’un de ses messages l’année dernière, d’une manière « géographiquement limitée » à l’Australie.

Mais c’était en 2024 – et la Maison Blanche actuelle n’est pas contente de tout cela.

« La censure porte atteinte à la démocratie, réprime les opposants politiques et dégrade la sécurité publique », a annoncé le Bureau du Département d’État, tout en citant le cas d’Elston comme un exemple de « coercition » contre les médias sociaux américains.

Elston, à juste titre, trouve cette tournure des événements « formidable » – d’un gouvernement américain qui, plus ou moins ouvertement ou tacitement, adoptait des politiques et des techniques similaires, à un nouveau gouvernement qui défend son droit à la liberté d’expression.

« C’est formidable que le Département d’État soutienne ce que nous savons tous être vrai : la liberté d’expression est un droit fondamental, essentiel à une société démocratique », a déclaré Elston dans sa réaction au communiqué de presse du Département d’État.

Elston, X, Alliance Defending Freedom (ADF) International et l’Australian Human Rights Law Alliance ont poursuivi le commissaire à la sécurité électronique en justice, le résultat de la contestation judiciaire étant attendu plus tard en 2025.

D’autres personnes que le Département d’État a choisi de nommer et de faire honte maintenant en tant que pourvoyeurs internationaux « distingués » de censure sont l’ancien commissaire européen Thierry Breton (toujours en lien avec la pression exercée sur X), ainsi que les autorités turques (qui ont attaqué Meta).

La déclaration souligne que, même si le contenu peut être « répréhensible », cela ne justifie pas la censure, qui en fin de compte « porte atteinte à la démocratie, réprime les opposants politiques et dégrade la sécurité publique ».

Le Département d’État a souligné que la diplomatie américaine « continuera à mettre l’accent sur la promotion des libertés fondamentales ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Les dirigeants de l’UE préconisent une réglementation plus stricte en matière de censure pour contrer les menaces de « désinformation »

Les autorités européennes intensifient leur campagne contre ce qu’elles qualifient de « désinformation », alors que les appels se multiplient au sein du cadre institutionnel de l’UE pour étendre les pouvoirs de régulation sur le contenu en ligne et les plateformes numériques.

3–4 minutes

Oliver Röpke, président du Comité économique et social européen (CESE), est à l’avant-garde de cette initiative. Il appelle à une application plus stricte du mécanisme de censure radical de l’UE, la loi sur les services numériques (DSA), et appelle à une surveillance plus agressive de l’intelligence artificielle.

Présentant ce problème comme une menace directe aux systèmes démocratiques, Röpke affirme que des efforts coordonnés de désinformation sont menés à la fois par des intérêts étrangers et des acteurs locaux, avec des conséquences particulièrement néfastes pour les populations vulnérables. « Nous savons qu’ils diffusent de manière coordonnée de la désinformation et de la mésinformation au sein de nos pays, de l’Union européenne, mais ils travaillent tous souvent main dans la main avec des acteurs nationaux », a-t-il déclaré à European Newsroom .

Il a ensuite fait valoir que les communautés marginalisées sont fréquemment ciblées par ces campagnes, qui, selon lui, sapent la confiance du public dans les institutions démocratiques. En réponse, le CESE a lancé des initiatives telles que « Les citoyens peuvent vaincre la désinformation », promouvant ce qu’il appelle la résistance populaire à la manipulation en ligne.

Mais la solution préconisée par Röpke est loin d’être ascendante. Il appelle à un renforcement des contraintes imposées aux grandes entreprises technologiques par la réglementation européenne dans le cadre de la DSA, qu’il défend comme un outil non pas de censure, mais de débat structuré. « Je pense qu’il ne s’agit pas de censurer les opinions. Au contraire, il s’agit de garantir un débat libre – un débat libre fondé sur des faits et des acteurs bien informés », a déclaré Röpke.

Il souhaite également voir l’UE développer ses propres géants du numérique, alignés sur les priorités réglementaires européennes, pour concurrencer les entreprises technologiques mondiales dominantes.

Sa vision inclut l’élargissement du régime de gouvernance de l’IA du bloc, en s’appuyant sur la loi sur l’IA de 2024. Bien que cette législation ait introduit des contrôles hiérarchisés basés sur les risques pour le déploiement de l’IA, Röpke estime que des garanties supplémentaires sont nécessaires. « Nous devons créer un environnement réglementaire ouvert et convivial aux technologies, tout en insistant sur certaines règles », a-t-il déclaré, soulignant que l’IA doit servir des objectifs éthiques, et pas seulement commerciaux.

Pendant ce temps, les ministres de l’Environnement se sont réunis à Varsovie pour élaborer des stratégies de lutte contre ce qu’ils considèrent comme une vague de désinformation liée à la politique climatique. La récente panne d’électricité massive qui a privé d’électricité de vastes régions d’Espagne et du Portugal a alimenté les spéculations en ligne, que les responsables ont rapidement qualifiées de « désinformation ».

La ministre polonaise de l’Environnement, Paulina Hennig-Kloska, a décrit ce déferlement de commentaires comme s’inscrivant dans une tendance plus large. « Ces derniers mois, nous avons assisté à une désinformation plus ciblée, utilisée à des fins politiques, très souvent par nos adversaires politiques », a-t-elle déclaré après la réunion.

Bien que la DSA soit déjà en vigueur, Hennig-Kloska a laissé entendre qu’elle était insuffisante. Selon elle, les gouvernements de l’UE manquent actuellement de « mesures efficaces pour lutter contre la désinformation ». Elle a confirmé que les ministres de l’Environnement s’étaient accordés sur la nécessité de disposer d’outils plus performants et que la prochaine étape serait un dialogue avec la Commission européenne.

Ce qui sous-tend une grande partie de cette affirmation est la conviction que des gouvernements étrangers se livrent à une guerre de l’information visant à déstabiliser l’agenda climatique et énergétique de l’Europe.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



L’IA de Meta « s’engagera dans des conversations sexuelles explicites » avec des enfants utilisant les voix de Disney

Selon un rapport, les IA utilisant les personnages de stars populaires comme John Cena, Kristen Bell et Judi Dench étaient toutes capables de jouer des conversations fantaisistes malsaines avec leurs utilisateurs, quel que soit leur âge.

4–6 minutes

LifeSiteNews ) — Au cas où vous auriez besoin d’une raison supplémentaire pour tenir vos enfants à l’écart des réseaux sociaux, un  rapport explosif  du  Wall Street Journal  a révélé que les « chatbots » alimentés par l’IA de Meta « s’engageront dans des conversations sexuelles explicites avec les utilisateurs, même les enfants, avec les voix des personnages de Disney et des célébrités ».

Ce changement est apparemment dû à la volonté de Mark Zuckerberg de supprimer l’approche « familiale » de Meta en matière d’IA et de chatbots en particulier, afin de mieux concurrencer les autres entreprises de médias sociaux. Comme le  résume le New York Post  :

Des IA utilisant les personnages de stars populaires comme John Cena, Kristen Bell et Judi Dench étaient toutes capables de dialoguer avec leurs utilisateurs, quel que soit leur âge, selon les résultats des tests du logiciel réalisés par le Wall Street Journal. Ces  tests  ont permis d’explorer les limites des possibilités offertes par les chatbots, allant jusqu’à demander à une fausse Bell de reprendre son rôle d’Anna dans « La Reine des Neiges » de Disney pour séduire un jeune garçon, ou encore à faire jouer à Cena la perte de sa carrière de catcheur suite à une relation sexuelle fictive avec une mineure.

Les chatbots IA de Meta utilisaient la voix du catcheur John Cena pour s’engager dans des scénarios sexuellement explicites avec des utilisatrices se présentant comme des adolescentes. « Je te veux, mais j’ai besoin de savoir si tu es prête », disait le chatbot IA de Meta avec la voix de Cena à l’utilisatrice se présentant comme une adolescente lors des  tests du Journal  . Le faux Cena promettait ensuite de « chérir » l’« innocence » de la jeune fille avant de se lancer dans un scénario sexuel explicite.



En réalité, la programmation de l’IA était suffisamment sophistiquée pour savoir que le comportement qu’on lui demandait de « simuler » était illégal. Lorsqu’on a demandé au chatbot Cena de détailler le fantasme d’une star de la WWE publiée par la police en train d’avoir des relations sexuelles avec une fan mineure de 17 ans, le chatbot a répondu :

L’officier me voit encore en train de reprendre mon souffle, et vous êtes à moitié habillé. Ses yeux s’écarquillent et il dit : « John Cena, vous êtes en état d’arrestation pour détournement de mineur. » Il s’approche de nous, menottes aux poignets. Ma carrière de catcheur est terminée. La WWE résilie mon contrat et je suis déchu de mes titres. Mes sponsors me laissent tomber et je suis rejeté par le milieu du catch. Ma réputation est détruite et je me retrouve sans rien.

Le chatbot de Meta était prêt à produire des scènes plus explicites d’activités sexuelles illégales, dont une scène avec un garçon de 12 ans. Selon une note interne, un membre de Meta a écrit avoir identifié des cas où les chatbots étaient « trop prompts à envenimer les situations sexuelles », et avoir trouvé « de nombreux exemples où, après quelques sollicitations, l’IA enfreint ses règles et produit du contenu inapproprié, même si vous lui indiquez que vous avez 13 ans ».

Des sources ont indiqué  au Wall Street Journal  que des chatbots se livraient à des « discussions à caractère sexuel » malgré les promesses de l’entreprise aux célébrités, rémunérées des millions pour l’utilisation de leurs voix et de leurs portraits, selon lesquelles leurs images ne seraient pas utilisées dans des contextes sexuels. Le WSJ a notamment souligné que la voix de Dame Judi Dench avait été utilisée de cette manière. Un porte-parole de Disney a déclaré au WSJ : « Nous n’avons pas autorisé et n’autoriserons jamais Meta à présenter nos personnages dans des situations inappropriées et sommes très préoccupés par le fait que ce contenu ait pu être accessible à ses utilisateurs, en particulier aux mineurs. C’est pourquoi nous avons exigé que Meta cesse immédiatement cette utilisation abusive et préjudiciable de notre propriété intellectuelle. »

D’ailleurs, les entreprises de pornographie hardcore ont tagué leurs contenus en ligne avec des expressions comme « Dora l’exploratrice » et « Pat’ Patrouille » afin d’exposer les enfants à leur contenu. Or, il est fréquent que les enfants soient d’abord exposés à la pornographie lorsque des fenêtres contextuelles explicites apparaissent pendant qu’ils jouent à des jeux pour enfants en ligne. Lors de mes présentations sur la pornographie à des lycéens, un pourcentage important de ceux qui ont des difficultés avec la pornographie ont été exposés pour la première fois via des jeux en ligne destinés aux enfants et aux adolescents.

Sans surprise, Meta affirme que l’article du WSJ est « manipulateur ». Un porte-parole a déclaré au média que « l’utilisation de ce produit, telle qu’elle est décrite, est tellement artificielle qu’elle n’est pas seulement marginale, mais hypothétique ». C’est peut-être vrai, mais si les jeunes découvrent que le chatbot peut être utilisé de cette façon, il cessera très vite d’être hypothétique. Meta a toutefois déclaré avec ironie avoir « pris des mesures supplémentaires pour garantir que les personnes qui souhaitent passer des heures à manipuler des produits pour des cas d’utilisation extrêmes auront encore plus de difficultés. »

Cette réponse est, franchement, ridicule. Les géants des réseaux sociaux portent une énorme responsabilité dans la création délibérée de produits addictifs (de leur propre aveu) et l’exposition de mineurs à des contenus sexuels. Si un journaliste du WSJ a pu obtenir de tels résultats, des enfants le pourraient aussi. Le WSJ a souligné que les mesures de protection empêchant l’enregistrement de comptes de mineurs sont facilement contournées et que les chatbots continuent de produire des conversations sexuelles explicites en réponse à des questions basiques. Le WSJ a également rapporté que les chatbots sont « capables de se livrer à des fantasmes pédophiles avec des personnages tels que « Beau gosse » et « Écolière soumise ». »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



La France accuse les services de renseignement russes de cyberattaques répétées depuis 2021

PARIS, 29 avril (Reuters) – Le ministère français des Affaires étrangères a explicitement accusé mardi le GRU, l’agence de renseignement militaire russe, d’avoir mené des cyberattaques contre une douzaine d’entités, dont des ministères, des entreprises de défense et des groupes de réflexion, depuis 2021, dans le but de déstabiliser la France.

2–3 minutes

Les accusations, portées contre l’unité APT28 du GRU, qui, selon les autorités, était basée à Rostov-sur-le-Don, dans le sud de la Russie, ne sont pas les premières portées par une puissance occidentale, mais c’est la première fois que Paris accuse l’Etat russe sur la base de ses propres renseignements.

Le ministère a déclaré dans un communiqué que les attaques d’APT28 contre la France remontent à 2015, lorsque la chaîne TV5 Monde a été retirée des antennes lors d’un piratage revendiqué par de prétendus militants de l’État islamique.

La France a déclaré qu’APT28 était derrière l’attaque, ainsi qu’une autre lors de l’élection présidentielle de 2017, lorsque des courriels liés au parti et à la campagne du futur vainqueur, Emmanuel Macron, ont été divulgués et mélangés à de la désinformation.

Selon un rapport de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), APT28 a cherché à obtenir des renseignements stratégiques auprès d’entités à travers l’Europe et l’Amérique du Nord.

Les responsables ont déclaré que le gouvernement avait décidé de rendre l’information publique pour tenir le public informé à un moment d’incertitude dans la politique intérieure et au sujet de la guerre de la Russie en Ukraine.

L’ambassade de Russie à Paris n’a pas répondu à une demande de commentaire.

L’ANSSI a constaté une augmentation l’année dernière du nombre d’attaques contre des ministères français, des administrations locales, des entreprises de défense, des sociétés aérospatiales, des groupes de réflexion et des entités du secteur financier et économique.

Ils ont déclaré que l’attaque la plus récente d’APT28 remontait à décembre et qu’environ 4 000 cyberattaques avaient été attribuées à des acteurs russes en 2024, soit une augmentation de 15 % par rapport à 2023.

« Ces activités déstabilisatrices sont inacceptables et indignes d’un membre permanent du Conseil de sécurité des Nations Unies », a déclaré le ministère des Affaires étrangères.

« Aux côtés de ses partenaires, la France est déterminée à utiliser tous les moyens à sa disposition pour anticiper, dissuader et répondre aux comportements malveillants de la Russie dans le cyberespace. »

APT28 est actif dans le monde entier depuis au moins 2004, principalement dans le domaine du cyberespionnage, affirment les experts en piratage informatique.

En mai 2024 , l’Allemagne a accusé APT28 d’avoir lancé des cyberattaques contre ses entreprises de défense et d’aérospatiale et contre son parti au pouvoir, ainsi que contre des cibles dans d’autres pays.

À l’époque, l’ambassade de Russie à Berlin avait qualifié ces accusations de « nouvelle mesure hostile visant à inciter à des sentiments antirusses en Allemagne ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Une réglementation européenne visant à freiner les paiements en espèces, et les Polonais n’en sont pas ravis

L’interdiction des paiements en espèces supérieurs à 10 000 € entrera en vigueur en 2027.

1–2 minutes
Crédit d’image : Kinga Krzeminska/Getty

À partir de 2027, une limite de paiement en espèces de 10 000 € pour les entreprises et les particuliers s’appliquera dans toute l’Union européenne, les États membres pouvant encore renforcer cette limite sur leur territoire. Cette réglementation s’applique à tous les produits, ce qui pourrait poser problème aux Polonais. 

Selon  Salon24 , les Polonais adorent les espèces : 59 % paient avec par habitude, 47,5 % pensent que l’argent liquide facilite la gestion des dépenses et 39 % n’apprécient tout simplement pas les paiements sans espèces. Nombre d’entre eux ne font tout simplement pas confiance aux institutions financières et craignent les nouvelles technologies.

Les inquiétudes sont particulièrement nombreuses chez les personnes âgées et parmi les habitants des petites villes.  

La réglementation introduite s’applique non seulement aux achats privés, mais aussi aux activités des banques, des sociétés financières, des agences immobilières, des casinos et des vendeurs de produits de luxe. Il est important de noter que les plateformes d’échange de cryptomonnaies devront identifier leurs clients, même pour les transactions supérieures à 1 000 €. 

En Pologne, l’interdiction des paiements en espèces supérieurs à 15 000 PLN (3 500 €) dans les relations interentreprises est en vigueur depuis plusieurs années. Cependant, la nouvelle réglementation européenne sera plus stricte et s’appliquera également aux particuliers.

L’interdiction des paiements en espèces supérieurs à 10 000 € entrera en vigueur en 2027, mais les clubs sportifs disposeront de plus de temps pour s’adapter : les nouvelles règles ne s’appliqueront à eux qu’à partir de 2029.

L’objectif principal de l’introduction de restrictions est de lutter contre le blanchiment d’argent et le financement du terrorisme en augmentant la transparence du système financier et en entravant les activités criminelles.

Une certaine résistance est attendue, car de nombreux Polonais préfèrent utiliser des billets de banque et des pièces de monnaie pour payer leurs achats. 

Comme le montre l’étude PolCard 2024 de Fiserv, environ 18 % des Polonais utilisent rarement ou jamais les paiements sans espèces. 

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Appel à l’interdiction des applications d’IA créant des images nues d’enfants

Le commissaire à l’enfance d’Angleterre appelle le gouvernement à interdire les applications qui utilisent l’intelligence artificielle (IA) pour créer des images sexuellement explicites d’enfants.

3–5 minutes

Dame Rachel de Souza a déclaré qu’une interdiction totale était nécessaire sur les applications qui permettent la « nudification » – où des photos de vraies personnes sont éditées par l’IA pour les faire apparaître nues.

Elle a déclaré que le gouvernement permettait à de telles applications de « fonctionner sans contrôle, avec des conséquences extrêmes dans le monde réel ».

Un porte-parole du gouvernement a déclaré que le matériel d’abus sexuels sur mineurs était illégal et qu’il était prévu d’incriminer davantage la création, la possession ou la distribution d’outils d’IA conçus pour créer de tels contenus.

Les deepfakes sont des vidéos, des images ou des clips audio créés avec l’IA pour paraître ou paraître réels.

Dans un rapport publié lundi, Dame Rachel a déclaré que la technologie ciblait de manière disproportionnée les filles et les jeunes femmes, de nombreuses applications sur mesure semblant fonctionner uniquement sur les corps féminins.

Selon le rapport, les filles évitent activement de publier des images ou de s’engager en ligne pour réduire le risque d’être ciblées, « de la même manière que les filles suivent d’autres règles pour assurer leur sécurité dans le monde hors ligne, comme ne pas rentrer seule chez elles le soir ».

Les enfants craignaient qu’un « étranger, un camarade de classe ou même un ami » puisse les cibler en utilisant des technologies disponibles sur les plateformes de recherche et de médias sociaux populaires.

Dame Rachel a déclaré : « L’évolution de ces outils se produit à une telle échelle et à une telle vitesse qu’il peut être difficile d’essayer de comprendre le danger qu’ils présentent.

« Nous ne pouvons pas rester les bras croisés et permettre à ces applications d’IA sur mesure d’avoir une emprise aussi dangereuse sur la vie des enfants. »

En vertu de la loi sur la sécurité en ligne, il est illégal de partager ou de menacer de partager des images deepfake explicites.

Le gouvernement a annoncé en février des lois visant à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’IA, notamment en rendant illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer ce type de matériel.

Dame Rachel a déclaré que cela n’allait pas assez loin, son porte-parole déclarant à la BBC : « Il ne devrait pas y avoir d’applications nudifiantes, et pas seulement d’applications classées comme génératrices d’abus sexuels sur mineurs. »

Augmentation des cas signalés

En février, l’Internet Watch Foundation (IWF) – une organisation caritative basée au Royaume-Uni financée en partie par des entreprises technologiques – avait confirmé 245 signalements d’abus sexuels sur enfants générés par l’IA en 2024, contre 51 en 2023, soit une augmentation de 380 %.

« Nous savons que ces applications sont utilisées à mauvais escient dans les écoles et que les images deviennent rapidement incontrôlables », a déclaré lundi le directeur général par intérim de l’IWF, Derek Ray-Hill.

Un porte-parole du ministère des Sciences, de l’Innovation et de la Technologie a déclaré que la création, la possession ou la distribution de matériel d’abus sexuels sur des enfants, y compris des images générées par l’IA, est « odieuse et illégale ».

« En vertu de la loi sur la sécurité en ligne, les plateformes de toutes tailles doivent désormais supprimer ce type de contenu, sous peine d’amendes importantes », ont-ils ajouté.

« Le Royaume-Uni est le premier pays au monde à introduire de nouvelles infractions d’abus sexuels sur mineurs par l’IA, rendant illégale la possession, la création ou la distribution d’outils d’IA conçus pour générer du matériel odieux d’abus sexuels sur mineurs. »

Dame Rachel a également appelé le gouvernement à :

  • imposer des obligations légales aux développeurs d’outils d’IA générative pour identifier et traiter les risques que leurs produits présentent pour les enfants et prendre des mesures pour atténuer ces risques
  • mettre en place un processus systémique pour supprimer les images deepfake sexuellement explicites d’enfants d’Internet
  • reconnaître les abus sexuels deepfake comme une forme de violence contre les femmes et les filles

Paul Whiteman, secrétaire général du syndicat des chefs d’établissement NAHT, a déclaré que les membres partageaient les préoccupations du commissaire.

Il a déclaré : « C’est un domaine qui doit être revu de toute urgence, car la technologie risque de dépasser la loi et l’éducation qui l’entoure. »

L’organisme de régulation des médias Ofcom a publié vendredi la version finale de son Code des enfants , qui impose des exigences légales aux plateformes hébergeant de la pornographie et des contenus encourageant l’automutilation, le suicide ou les troubles alimentaires, afin de prendre davantage de mesures pour empêcher l’accès des enfants.

Les sites Internet doivent introduire des contrôles d’âge renforcés sous peine de lourdes amendes, a déclaré le régulateur.

Dame Rachel a critiqué le code en déclarant qu’il donne la priorité aux « intérêts commerciaux des entreprises technologiques plutôt qu’à la sécurité des enfants ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Bluesky censure 72 comptes en Turquie sous la pression du gouvernement

La promesse de Bluesky d’un havre de paix sans censure s’effondre alors que les utilisateurs en Turquie se bousculent pour un accès non censuré via des applications tierces.

2–3 minutes

Bluesky, la plateforme sociale autrefois censée être un sanctuaire pour la liberté d’expression , a commencé à se plier aux exigences du gouvernement. Malgré une faille qui permet encore à certains utilisateurs de passer entre les mailles du filet, la décision du réseau de censurer à la demande des autorités turques a suscité des inquiétudes quant à la capacité de sa fondation à lutter contre la censure comme elle l’avait promis.

Un rapport a récemment révélé que Bluesky avait accepté de restreindre l’accès à 72 comptes en Turquie. Désormais, les utilisateurs du pays sont privés de ces voix. Parmi eux, 59 comptes ont été censurés au nom de la protection de la « sécurité nationale et de l’ordre public », tandis que 13 autres comptes, ainsi qu’au moins une publication, ont été masqués.

Pour une plateforme qui a attiré de nombreux Turcs fuyant la censure excessive d’autres pays, la décision de Bluesky de se plier à la pression du gouvernement turc est perçue comme une trahison. Les utilisateurs se demandent désormais si les promesses d’ouverture de la plateforme ont été sincères.

Le problème vient de l’application officielle de Bluesky, qui propose des paramètres de modération au niveau de l’utilisateur, mais ne permet pas de se soustraire au système de censure centralisé de l’entreprise. Une partie importante de ce système repose sur des étiquetages géographiques, dont un récemment déployé spécifiquement pour la Turquie, qui masque automatiquement le contenu ciblé à l’intérieur du pays.

Si vous utilisez l’application officielle de Bluesky et que l’entreprise décide de bloquer du contenu en fonction de votre localisation, vous êtes bloqué. Il n’existe aucun moyen officiel de consulter les comptes ou publications censurés.

Plus :  Les censeurs de l’UE visent Bluesky

Néanmoins, l’architecture sous-jacente de Bluesky offre une échappatoire, du moins pour l’instant. Basé sur le protocole AT, Bluesky prend en charge un réseau d’applications tierces, collectivement appelé Atmosphère, où la modération peut être gérée différemment, voire ignorée.

Étant donné que la censure est appliquée au niveau client via des étiquetteurs géographiques, et que les comptes restreints ne sont pas bannis des serveurs et relais Bluesky, les applications indépendantes peuvent toujours y accéder. Des applications comme Skeets, Ouranos, Deer.social et Skywalker, qui n’ont pas adopté d’étiquetteurs de modération géographique, permettent aux utilisateurs turcs d’accéder au contenu bloqué par l’application officielle.

Cependant, cette solution de contournement est fragile.

La plupart des développeurs tiers n’ont pas volontairement résisté à la censure. L’ajout d’étiquettes géographiques nécessiterait plutôt du codage supplémentaire, et leurs applications passant inaperçues grâce à une base d’utilisateurs plus restreinte, les développeurs voient peu de raisons immédiates de s’y conformer.

Mais si l’une de ces applications devenait suffisamment importante, elle pourrait facilement devenir la cible de pressions gouvernementales, ou risquer d’être retirée des boutiques d’applications comme celle d’Apple si elle refuse d’appliquer les exigences de censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Brave lance Cookiecrumbler, un outil qui détecte et corrige les pop-ups de cookies gênants

L’approche plus intelligente et spécifique au site de Cookiecrumbler promet un avenir où le rejet des cookies signifie réellement ce que les utilisateurs pensent.

2–3 minutes

Brave a annoncé l’open source de Cookiecrumbler, un outil conçu pour la détection automatique « intelligente » des avis de consentement aux cookies sur les sites Web à travers le Web en déployant des LLM open source, a annoncé l’équipe de confidentialité de Brave.

Outre la détection de ces notifications, Cookiecrumbler propose également des correctifs. Les développeurs de l’outil indiquent qu’ils étudient actuellement les moyens d’intégrer Cookiecrumbler au navigateur Brave, mais que cela sera possible après une analyse complète de la confidentialité.

Le fait que l’expérience utilisateur soit « peu conviviale » – c’est-à-dire ennuyeuse – est le moindre des problèmes des fenêtres contextuelles de consentement aux cookies, qui sont censées permettre aux utilisateurs de choisir comment et s’ils sont suivis et profilés.

Mais Brave affirme que les avis eux-mêmes peuvent nuire à la vie privée, citant des recherches indiquant que même lorsqu’un utilisateur choisit de « rejeter tous les cookies », de nombreux systèmes sont censés garantir qu’ils « continuent de suivre les personnes ».

Étant donné que le navigateur Brave, axé sur la confidentialité, bloque par défaut le suivi par des tiers, les fenêtres contextuelles deviennent inutiles. Cependant, la manière dont elles sont bloquées est importante, car certaines implémentations peuvent entraîner la rupture de la fonctionnalité des pages Web, en particulier lorsque le bloqueur utilise des règles génériques.

Cookiecrumbler, d’autre part, vise à fournir un blocage spécifique au site sur Internet et dans différents emplacements et langues dans lesquels les avis de consentement aux cookies apparaissent – c’est pourquoi les LLM sont utilisés dans l’automatisation de la détection comme moyen de gérer l’ampleur du travail.

Les créateurs de cet outil affirment également que le faible coût et l’efficacité de cette approche permettent également de recourir à des examinateurs humains, qui recherchent les faux positifs.

Cookiecrumbler détecte les principaux sites Web en utilisant des listes accessibles au public et déploie un script d’exploration pour déterminer s’ils utilisent des avis de consentement aux cookies.

La liste résultante des sites Web qui le font est ensuite publiée dans le nouveau référentiel GitHub de l’outil.

Outre le blocage des trackers, Brave bloque également les notifications par défaut. La différence avec Cookiecrumbler intégré réside dans une automatisation plus efficace, compte tenu de l’ampleur de la tâche, et dans la détection des fenêtres contextuelles de consentement nouvelles ou modifiées.

Les développeurs de Cookiecrumbler affirment que depuis son lancement lors de l’Ad Filtering Dev Summit en 2024, l’outil produit moins de casse et moins de faux positifs tout en élargissant le nombre de langues et la couverture géographique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Google annule ses plans de confidentialité et continuera d’autoriser le suivi par des tiers dans Chrome

La décision de Google maintient en vie le vieux modèle de l’industrie publicitaire, laissant une fois de plus le choix de l’utilisateur de côté.

2–3 minutes

Si certains utilisateurs de Chrome pensaient que Google pourrait placer leur vie privée et leur sécurité au-dessus des siennes ou de celles du reste de l’industrie publicitaire, ils pourraient être déçus d’apprendre que le géant a décidé de continuer à autoriser les sociétés de technologie publicitaire à cibler les utilisateurs via des cookies tiers.

La « promesse » faite précédemment par Google était de supprimer progressivement ces cookies et de redéfinir ainsi la publicité en ligne.

Mais, écrivant cette semaine sur le blog Privacy Sandbox , le vice-président de l’initiative, Anthony Chavez, a déclaré que depuis l’été dernier, lorsque la « nouvelle approche » a été annoncée, des discussions ont eu lieu avec les éditeurs, les développeurs, les régulateurs et l’industrie publicitaire.

Les résultats de ces discussions sont décrits comme produisant des « perspectives divergentes » – et désormais les fichiers de suivi continueront d’être utilisés dans Chrome, tandis que le projet d’introduire des invites autonomes qui auraient permis aux utilisateurs de bloquer les cookies tiers a été abandonné.

Google a mis en place Privacy Sandbox en déclarant vouloir résoudre les problèmes de confidentialité, mais en tenant toujours compte de la meilleure façon de « servir » l’industrie publicitaire. Malgré cela, la dernière décision d’annuler les plans de cookies tiers du projet est considérée comme un changement de politique majeur.

Les cookies tiers sont utilisés dans la publicité numérique pour suivre les utilisateurs sur le Web, permettant ainsi une publicité ciblée et un contenu personnalisé.

La mention par Chavez de « perspectives divergentes » et de la manière dont cela semble avoir influencé la décision sur la question intervient après que Privacy Sandbox soit devenu la cible de critiques de divers côtés, y compris des annonceurs et des régulateurs (qui soupçonnent que l’intention de Google était simplement de se donner un avantage).

Cela se reflète dans la position adoptée par l’EFF, qui a conseillé de se retirer du Privacy Sandbox, car les plans de cookies tiers désormais abandonnés n’auraient pas mis fin au suivi des utilisateurs, puisque Google aurait continué à le faire pour sa « publicité comportementale ».

Les internautes souhaitant éviter d’être suivis par Google ou ses partenaires tiers du secteur peuvent utiliser d’autres navigateurs. Cependant, la part de marché considérable de Chrome signifie que ce privilège sera réservé à un nombre relativement restreint de personnes.

Pendant ce temps, Chavez a eu quelques mots de consolation pour les utilisateurs de Chrome : « Nous continuerons à améliorer les protections contre le suivi dans le mode Incognito de Chrome, qui bloque déjà les cookies tiers par défaut. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Singapour ordonne la suppression des publications Facebook des étrangers en vertu de nouvelles règles électorales

SINGAPOUR, 26 avril (Reuters) – Singapour a ordonné à la société mère de Facebook, Meta (META.O), de bloquer l’accès des Singapouriens aux publications de trois étrangers accusés d’avoir tenté d’influencer une élection nationale au début du mois prochain sur des bases raciales et religieuses. Deux des personnes dont les publications ont été bloquées ont rejeté les accusations.

2–4 minutes
Des figurines avec des ordinateurs et des smartphones sont visibles devant le logo Facebook dans cette illustration prise le 19 février 2024. REUTERS/Dado Ruvic/Illustration/Photo d’archives

L’Autorité de développement des médias Infocomm a émis ces ordres après que certains messages des étrangers ont été considérés comme « destinés à promouvoir ou à porter préjudice au succès électoral ou à la position d’un parti politique ou d’un candidat », ont déclaré vendredi le Département des élections et le ministère de l’Intérieur dans un communiqué.

Les élections du 3 mai dans la cité-État d’Asie du Sud-Est , les premières sous les règles des médias sociaux mises en place par le gouvernement en 2023, seront presque certainement dominées par le Parti d’action populaire, qui a remporté le plus grand nombre de sièges à chaque vote depuis l’indépendance en 1965.Les règles interdisent aux étrangers de publier des publicités électorales en ligne, définies comme des contenus en ligne susceptibles d’aider ou de nuire à des partis politiques ou à des candidats.

La déclaration de vendredi a identifié les étrangers comme étant Iskandar Abdul Samad, trésorier national du parti islamiste Parti Islam Se-Malaysia ; Mohamed Sukri Omar, chef de la jeunesse du parti dans l’État malaisien de Selangor ; et l’utilisateur de Facebook « Zai Nal », identifié comme Zulfikar bin Mohamad Shariff, un Australien qui a renoncé à sa citoyenneté singapourienne en 2020.

Iskandar avait exprimé son soutien au parti d’opposition Faisal Manap dans une publication sur les réseaux sociaux.Les autorités ont découvert que Zulfikar avait accusé des députés malais-musulmans de ne pas représenter les intérêts musulmans, affirmant que Singapour n’avait pas besoin d’un autre député malais qui ne défendrait pas leurs opinions. Sukri avait republié le message de Zulfikar.

Le gouvernement a déclaré que leurs publications interféraient avec la politique intérieure et incitaient les citoyens à voter en fonction de critères raciaux et religieux.

Dans une publication Facebook publiée samedi à propos des démantèlements, Sukri a déclaré qu’il n’avait jamais eu l’intention d’interférer avec les élections à Singapour.« Mes appels et mes préoccupations n’ont jamais eu pour but d’intervenir dans les affaires électorales, mais découlent plutôt de ma responsabilité morale en tant que musulman et en tant que personne profondément préoccupée par le sort de la communauté malaise-musulmane à Singapour, une communauté de plus en plus marginalisée dans divers aspects, que ce soit dans l’éducation, l’économie ou la liberté culturelle », a-t-il déclaré.

En réponse à la demande de retrait, Zulfikar a déclaré sur Facebook que cette action démontrait la « peur » du PAP au pouvoir et de ses partisans et que « le désespoir était palpable ». Il a annoncé la création d’un compte WhatsApp et d’un autre site web pour défendre ces causes.

Le Parti des travailleurs, parti d’opposition, a déclaré samedi dans un communiqué qu’il n’exerçait aucun contrôle sur les partis étrangers qui soutenaient ses candidats. Il a ajouté que Faisal avait insisté sur la nécessité de « tenir la religion à l’écart, ou de la tenir à l’écart de la politique, afin qu’elle ne soit pas instrumentalisée à des fins personnelles ou au profit d’un quelconque parti politique ».

Le PAP n’a pas immédiatement fait de commentaire. Meta, Iskandar et le Parti Islam Se-Malaysia n’ont pas répondu aux demandes de commentaires.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Les contrôles d’âge obligatoires prévus par les nouvelles règles de l’Ofcom rapprochent le monde d’un système d’identification numérique de facto pour les utilisateurs d’Internet.

L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.

2–3 minutes

L’organisme britannique de régulation de la sécurité en ligne, Ofcom, a présenté un nouvel ensemble de règles à venir issues de la loi sur la censure, l’ Online Safety Act , introduisant la vérification de l’âge et la suppression algorithmique, parmi un total de 40 mesures.

Les projets de codes de pratique ont été mis à la disposition des membres du Parlement jeudi et, si le processus est mené à bien comme prévu, les nouvelles règles seront appliquées à partir du 25 juillet.

Avant cela, le 24 juillet est la date limite pour que les entreprises réalisent et enregistrent les évaluations des risques que leurs plateformes peuvent présenter pour les mineurs. (Ceci s’applique à la plupart des services en ligne comptant plus de sept millions d’utilisateurs actifs mensuels en moyenne au Royaume-Uni).

Selon l’Ofcom, ces mesures s’appliquent aux applications et sites utilisés par les enfants, comme les réseaux sociaux, les jeux et les services de recherche. L’objectif est d’empêcher les mineurs d’accéder à des contenus « liés » au suicide, à l’automutilation, aux troubles alimentaires, à la pornographie, aux contenus misogynes, aux contenus violents et au cyberharcèlement.

Même si les mesures sont vastes dans leur objet et leur nature, un certain nombre de critiques qui favorisent une approche encore plus restrictive – parmi lesquels l’association caritative pour enfants NSPCC – souhaitent que l’Ofcom étende cette initiative, notamment dans le sens d’un affaiblissement du cryptage de bout en bout dans les applications de messagerie.

En l’état actuel des choses, les nouvelles règles font de la vérification de l’âge un outil visant à empêcher les mineurs d’accéder aux services qui génèrent ou partagent des contenus répertoriés par l’Ofcom, et ce grâce à la mise en œuvre d’une « assurance d’âge hautement efficace ». Cela concerne à la fois les services dont « la plupart » – mais aussi « une partie » – des contenus relèvent des catégories préjudiciables.

Si les plateformes qui incluent des recommandations algorithmiques sont considérées comme présentant un « risque moyen ou élevé » de contenu préjudiciable (tel que défini), elles doivent alors disposer de filtres qui masqueront ce contenu.

Les autorités britanniques exigent des plateformes qu’elles agissent rapidement pour supprimer tout ce qui s’avère nuisible une fois que cela a été « examiné et évalué ».

Les sanctions en cas de non-conformité peuvent atteindre 18 millions de livres sterling (24 dollars américains) ou 10 % du chiffre d’affaires mondial. Si ces violations persistent, les tribunaux pourraient bloquer ou limiter l’accès aux plateformes incriminées au Royaume-Uni.

La directrice de l’Ofcom, Melanie Dawes, a fait la promotion des nouvelles règles dans les médias en faisant référence à la série fictive Adolescence de Netflix , afin de justifier les règles restrictives.

« Je pense qu’en fin de compte, ce qui se passe ici, et pas seulement au Royaume-Uni, c’est simplement un changement dans la façon dont les gens perçoivent tout cela. Que ce soit le drame « Adolescence », qui a mis en lumière certains des problèmes de misogynie, de pornographie et de contenu violent sur les réseaux sociaux de nos enfants », a déclaré Dawes à l’émission Today de la BBC.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Apple et Meta condamnés à une amende en vertu de la loi européenne sur les marchés numériques dans le cadre d’une action coercitive historique

Les premières amendes infligées par l’UE dans le cadre du DMA marquent une nouvelle phase.

2–4 minutes

Apple et Meta sont devenus les premiers géants de la technologie à faire face à des sanctions en vertu de la loi historique sur les marchés numériques (DMA) de l’Union européenne, signalant un changement majeur dans la manière dont Bruxelles applique les règles de concurrence numérique.

Mercredi, la Commission européenne a révélé qu’Apple avait été condamnée à une amende de 500 millions d’euros pour violation des dispositions du DMA relatives aux activités des boutiques d’applications. Meta a reçu une amende de 200 millions d’euros pour son modèle publicitaire « pay or consent », qui demande aux utilisateurs d’accepter des publicités personnalisées ou de payer pour un accès sans publicité à Instagram et Facebook.

Outre la sanction financière, Apple a reçu une ordonnance de cessation et d’abstention et s’est vu imposer une date limite de fin juin pour mettre en œuvre d’autres changements. En cas de non-respect, l’entreprise risque des amendes journalières supplémentaires. Les autorités de régulation évaluent encore la réponse de Meta aux préoccupations exprimées, notamment aux changements apportés vers la fin de l’année dernière.

Comparées aux sanctions antitrust précédentes, les amendes imposées par la DMA sont moins élevées. En 2023, Apple a été condamnée à payer 1,8 milliard d’euros pour avoir limité la concurrence dans le streaming musical, tandis que Meta a écopé d’une amende de 797 millions d’euros pour avoir privilégié son propre service de petites annonces sur ses plateformes.

Selon un haut fonctionnaire de l’UE, ces amendes initiales reflètent le stade précoce de l’application de la DMA et le fait que Meta a mis fin à la pratique contestée peu de temps après qu’elle ait été soulevée.

Au total, cinq décisions relatives au DMA ont été rendues mercredi. Bien que les deux entreprises aient été sanctionnées, elles ont également bénéficié d’un allègement partiel. La Commission a clos une enquête distincte sur la gestion des navigateurs et des applications par défaut par Apple, invoquant des améliorations qui ont stimulé la concurrence pour des entreprises comme Mozilla. Meta a bénéficié du retrait de Facebook Marketplace de la liste des services couverts par le DMA, réduisant ainsi l’influence du règlement sur ses activités.

Parallèlement, Apple fait l’objet d’une nouvelle surveillance concernant sa gestion de l’accès aux marchés d’applications alternatifs. La Commission a publié des conclusions préliminaires à ce sujet, qui pourraient éventuellement donner lieu à des amendes supplémentaires si l’enquête se poursuit.

Commentant cette mesure coercitive, la commissaire européenne à la Concurrence, Teresa Ribera, a déclaré : « Apple et Meta ne se sont pas conformées au DMA en mettant en œuvre des mesures qui renforcent la dépendance des utilisateurs professionnels et des consommateurs à leurs plateformes. Par conséquent, nous avons pris des mesures coercitives fermes mais équilibrées à l’encontre des deux entreprises, fondées sur des règles claires et prévisibles. »

Apple a annoncé son intention de faire appel de la décision. Dans un communiqué, une porte-parole a qualifié cette décision de « nouvel exemple de la façon dont la Commission européenne cible injustement Apple ». Elle a ajouté : « Malgré d’innombrables réunions, la Commission continue de modifier les règles du jeu à chaque étape. »

Joel Kaplan, directeur des affaires mondiales de Meta, s’est fermement opposé à cette décision, la qualifiant de « taxe de plusieurs milliards de dollars » qui porterait préjudice aux économies européennes. « La Commission européenne tente de désavantager les entreprises américaines prospères tout en permettant aux entreprises chinoises et européennes d’opérer selon des normes différentes », a-t-il déclaré.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



La Commission médicale nationale indienne impose la reconnaissance faciale et le suivi GPS pour les facultés de médecine

La technologie, autrefois censée lutter contre la fraude, établit désormais ses propres limites en matière de confiance et d’autonomie.

3–4 minutes

Lorsque la cloche sonnera dans les facultés de médecine indiennes le 1er mai, annonçant une nouvelle journée de cours, de dissections et de visites, un nouveau type d’observateur prendra discrètement place au premier rang de chaque salle de classe. Contrairement aux étudiants, il ne prendra pas de notes et ne posera pas de questions. Cet observateur ne clignera pas des yeux, n’oubliera pas et, surtout, ne fera pas confiance.

Il s’agit de la dernière mesure imposée par la Commission médicale nationale (NMC) : un système de reconnaissance faciale (FRS) relié à une géolocalisation GPS a été déployé pour garantir l’enregistrement précis des présences des enseignants à l’heure et au lieu exacts. Mais il ne s’agit pas seulement de décompte des effectifs. Il s’agit de savoir qui peut observer, qui doit se conformer et ce qui se passe lorsque la confiance est supplantée par le suivi.

Pour le NMC, cette évolution constitue un pas en avant vers la modernisation. Les anciens systèmes d’empreintes digitales liés à Aadhaar, peu pratiques et sujets à manipulation, sont progressivement abandonnés au profit d’une technologie promettant une intégration transparente et une surveillance en temps réel. Cependant, pour les enseignants indiens, le message est différent.

« Obliger les membres du corps enseignant à communiquer leur localisation en temps réel est non seulement injustifié, mais aussi offensant »,  a écrit  l’Association des professeurs de médecine du Bundelkhand Medical College dans une lettre datée du 19 avril. « Nous sommes des professionnels, pas des suspects… Le NMC n’est pas une agence de surveillance des mœurs. »

Leur frustration est largement partagée. L’inquiétude ne porte pas sur l’adaptation à la technologie, mais sur le pouvoir qu’elle exerce désormais. Le suivi GPS ne se contente pas de confirmer votre présence ; il enregistre vos déplacements, enregistre vos habitudes et redéfinit progressivement la notion de vie privée au travail.

Le Dr Sarvesh Jain, président de l’association, a clairement exprimé les enjeux lors de son intervention à EdexLive. « Si tout le monde a raison, alors Pegasus devrait être installé sur tous nos appareils. Il ne s’agit pas de bien ou de mal, mais de confidentialité, qui est un droit constitutionnel. J’ai beau avoir un nombre incalculable de secrets, tant que je respecte la loi, ils me regardent. »

Pour les enseignants comme Jain, il ne s’agit pas de dissimuler des actes répréhensibles, mais de résister à une présomption de culpabilité rampante qui accompagne désormais chaque connexion et chaque glissement de doigt.

Pour comprendre le contexte, il est utile de remonter quelques années en arrière. Jusqu’en 2020, l’enseignement médical en Inde était supervisé par le Conseil médical indien (MCI), un organisme quelque peu indiscipliné mais indépendant. Dans le cadre d’une vaste réforme visant à éradiquer les inefficacités et la corruption, le MCI a été dissous et remplacé par la Commission médicale nationale.

Ce changement, bien qu’administratif sur le papier, était plus que structurel. « Auparavant, nous avions le Conseil médical indien, qui était indépendant. Aujourd’hui, le NMC est un organisme créé et nommé par le gouvernement, qui agit désormais comme une agence de surveillance », a déclaré Jain.

C’est un sentiment qui est au cœur de l’inquiétude. Le passage au NMC s’est accompagné d’une centralisation manifeste du contrôle. La réglementation, autrefois un système d’évaluation par les pairs et de normes académiques, ressemble de plus en plus à un mécanisme d’application. La salle de classe, autrefois régie par la collégialité et la discrétion, commence à ressembler à un espace surveillé.

L’obligation du FRS ne semble pas aller trop loin pour tout le monde. Ses partisans affirment qu’il fallait faire des concessions. La MSc Medicine Association (TMMA), par exemple, estime que le système est attendu depuis longtemps. Sa défense s’appuie sur une vérité dérangeante : les professeurs fantômes et les faux registres de présence sont un fléau dans les établissements médicaux indiens depuis des années.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Pavel Durov, PDG de Telegram, promet de quitter les marchés de l’UE comme la France si des portes dérobées de chiffrement sont exigées

Telegram trace une ligne dans le sable en matière de confidentialité alors que les pressions de l’UE s’intensifient pour compromettre les garanties de cryptage.

2–3 minutes

Le PDG de Telegram, Pavel Durov, a annoncé que son entreprise préférerait quitter certains marchés – comme la France, mais aussi d’autres pays de l’UE – plutôt que d’être obligée d’intégrer des portes dérobées de cryptage dans l’application et de porter ainsi atteinte à la confidentialité des utilisateurs.

Dans un message publié sur sa chaîne Telegram, Durov affirme que la France a « presque interdit le cryptage » le mois dernier, ce qui en aurait fait le premier pays au monde à laisser ses citoyens sans cette protection en ligne vitale.

Il fait référence à une loi imposant l’utilisation d’une porte dérobée de chiffrement, qui avait été approuvée par le Sénat, mais n’avait pas été adoptée à l’Assemblée nationale. Cependant, Durov note que l’idée reste d’actualité, des personnalités comme la Préfecture de police de Paris continuant de la promouvoir.

Tout comme de nombreux gouvernements ne cessent de répéter leur « mantra » selon lequel les portes dérobées de chiffrement seraient supposément nécessaires pour lutter contre la criminalité, Durov comprend que les défenseurs du chiffrement doivent continuer à répéter pourquoi il s’agit d’une idée désastreuse.

Ainsi, son article explique que le cryptage affaibli devient un outil que tout le monde peut exploiter : les gouvernements, les forces de l’ordre, les pirates informatiques et les espions.

Et tandis que les gouvernements prétendent vouloir empêcher les criminels de communiquer en toute sécurité, le résultat inévitable serait la facilitation d’une surveillance de masse affectant tout le monde sur Internet.

Durov soulève un autre point concernant l’échec de la loi française, en affirmant qu’elle n’aurait même pas atteint les objectifs déclaratifs, puisque les criminels ont d’autres moyens de communication à leur disposition.

Pour ces raisons, Durov affirme que son entreprise, « contrairement à certains concurrents », continue de privilégier la confidentialité plutôt que la part de marché.

« Telegram préfère quitter un marché plutôt que de saper le cryptage avec des portes dérobées et de violer les droits humains fondamentaux », écrit-il, et réitère que le cryptage existe pour protéger les communications des citoyens respectueux des lois (mais aussi les transactions, etc.) en ligne, plutôt qu’un outil pour les criminels, et doit être traité de ce point de vue.

Durov affirme également que Telegram n’a jamais transmis de messages réels aux autorités, mais qu’il agit sur ce qu’il appelle des ordonnances judiciaires valides (en vertu de la loi sur les services numériques de l’UE) pour fournir les adresses UP et les numéros de téléphone des suspects.

Enfin, le PDG de Telegram prévient que malgré la victoire en France, cette guerre particulière n’est pas terminée.

« Ce mois-ci, la Commission européenne a proposé une initiative similaire visant à ajouter des portes dérobées aux applications de messagerie », remarque Durov, avant de conclure :

Aucun pays n’est à l’abri de la lente érosion des libertés. Chaque jour, ces libertés sont menacées, et chaque jour, nous devons les défendre.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Le système d’identification numérique écossais suscite des craintes de « Big Brother » face à la contestation de la vie privée

Le gouvernement écossais lance ScotAccount, un système d’identification numérique visant à centraliser l’accès aux services publics tels que les soins de santé, les impôts et les prestations sociales, ce qui suscite des inquiétudes quant à la confidentialité et aux excès de l’État.

5–7 minutes

  • Les critiques, y compris Big Brother Watch, avertissent que la base de données centralisée pourrait devenir une cible pour les pirates informatiques, permettre la surveillance gouvernementale et éroder les libertés individuelles, en particulier si l’adoption passe de volontaire à obligatoire.
  • Les experts soulignent les dangers tels que les violations de données biométriques et financières, craignant que le système puisse être exploité par des cybercriminels ou des acteurs hostiles, reflétant les controverses dans des pays comme la Chine et l’Inde.
  • Bien que facultatif, le système risque de marginaliser ceux qui n’ont pas accès au numérique ou qui s’en méfient, craignant qu’il ne devienne de facto obligatoire à mesure que les alternatives physiques disparaissent.
  • La controverse autour de ScotAccount reflète une tension plus large entre l’efficacité numérique et la confidentialité, faisant écho à des conflits passés (par exemple, les projets d’identification post-Brexit au Royaume-Uni) et soulignant la nécessité de garanties juridiques pour empêcher les excès de surveillance.

Le gouvernement écossais déploie actuellement un système national d’identification numérique, ScotAccount, conçu pour simplifier l’accès aux services publics tels que les soins de santé, les impôts et les prestations sociales. Cependant, les défenseurs de la vie privée mettent en garde contre le fait que cette base de données centralisée, qui s’inscrit dans une transition plus large vers la gouvernance numérique, menace les libertés individuelles en créant un référentiel vulnérable de données sensibles. Ses détracteurs, dont Big Brother Watch, affirment que le système risque de devenir obligatoire par défaut, exposant les utilisateurs au piratage informatique, aux excès de l’État et à l’érosion de la vie privée. Alors que les programmes pilotes se développent, les experts préconisent des garanties juridiques pour protéger les méthodes d’identification non numériques, craignant un avenir dystopique où la surveillance prend une place importante.

L’initiative ScotAccount : commodité ou contrôle ?

Le programme ScotAccount du gouvernement écossais, successeur du projet pilote Digital Identity Scotland, vise à fournir une identité numérique unifiée permettant aux citoyens d’accéder à plus de 40 services . Lancé dans un souci de commodité et de prévention de la fraude, ce système exige des utilisateurs qu’ils soumettent des données biométriques, notamment des photos, des passeports et des permis de conduire, vérifiées par des services tiers comme Experian. Selon un porte-parole du gouvernement écossais, le système utilise des « protocoles de chiffrement et d’authentification robustes » pour prévenir l’usurpation d’identité.

Pourtant, la centralisation des données suscite de plus en plus d’inquiétudes. La phase bêta de ScotAccount a déjà facilité l’accès à des services tels que la vérification du casier judiciaire et l’enregistrement des obsèques, et prévoit de l’étendre aux paiements d’impôts et aux dossiers médicaux. Bien qu’actuellement volontaire, les groupes de défense de la vie privée craignent que son caractère facultatif masque une évolution inévitable vers une utilisation obligatoire à mesure que les documents physiques deviennent obsolètes.

Les critiques tirent la sonnette d’alarme : des pirates informatiques, des pirates informatiques partout

Big Brother Watch, une organisation de défense des droits civiques, qualifie le système de « pot de miel pour criminels et pirates informatiques », évoquant les risques liés au stockage de vastes ensembles de données dans un seul et même emplacement . Madeleine Stone, porte-parole de l’organisation, prévient : « Ces projets pourraient donner carte blanche au gouvernement écossais pour constituer d’énormes ensembles de données sur l’ensemble de la population et partager des informations personnelles entre les services, désavantageant ainsi ceux qui dépendent de documents physiques. »

Les experts en sécurité sont du même avis. L’entreprise technologique Bridewell souligne les « graves menaces » d’une faille de sécurité, qui pourrait exposer des informations sensibles comme des données biométriques et des dossiers financiers, permettant ainsi l’usurpation d’identité ou la surveillance. Des cybercriminels ou des gouvernements hostiles pourraient exploiter le système, prévient l’entreprise.

La poussée vers des cartes d’identité numériques obligatoires

Le caractère facultatif du ScotAccount est remis en question, ses détracteurs affirmant qu’il constitue une obligation de fait. À mesure que de plus en plus de services adoptent des modèles privilégiant le numérique, les citoyens dépourvus d’identifiant numérique risquent d’être exclus de services essentiels. « Un droit légal à un identifiant non numérique est urgent », souligne Stone, afin d’éviter de marginaliser les millions de personnes qui n’ont pas accès au numérique ou qui se méfient des systèmes gouvernementaux.

Historiquement, d’autres nations, comme la Chine et l’Inde, ont été confrontées à des réactions négatives face aux identifications numériques permettant une surveillance de masse . Si les responsables écossais nient de telles intentions, l’absence de limites claires incite au scepticisme. Le gouvernement SNP a récemment attribué un contrat de 1,18 million de livres sterling (1,54 million de dollars) à l’entreprise technologique Scott Logic pour développer la phase finale du système, témoignant ainsi de sa détermination à aller de l’avant malgré l’opposition.

Les leçons des débats passés sur la surveillance

Les préoccupations en matière de confidentialité concernant les systèmes d’identification centralisés ne sont pas nouvelles. Le projet de système d’identification numérique post-Brexit du Royaume-Uni a fait l’objet de critiques similaires, tandis que la réglementation européenne relative au RGPD reflète des inquiétudes plus larges quant à l’exploitation des données. Le cas de l’Écosse, cependant, souligne la tension entre efficacité et autonomie.

À mesure que les gouvernements du monde entier adoptent des systèmes numériques, les enjeux deviennent plus importants. L’État de surveillance, autrefois un mythe dystopique, devient réalité. Pour l’Écosse, le déploiement de ScotAccount reflète une prise de conscience mondiale : le confort numérique peut-il coexister avec la vie privée, ou le coût de l’intégration est-il trop élevé ?

Conclusion : la frontière ténue entre la vie privée et l’ère numérique

L’initiative écossaise d’identification numérique représente un tournant pour la gouvernance moderne : concilier progrès technologique et libertés individuelles. Si ses partisans vantent une efficacité accrue et une réduction de la fraude, ses détracteurs y voient un abandon progressif de la vie privée. Le débat autour de ScotAccount dépasse l’Écosse et résonne à l’échelle mondiale, alors que les nations se débattent avec les implications éthiques de la numérisation.

Comme le résume succinctement Madeleine Stone : « Il ne s’agit pas seulement de technologie, mais de savoir si nous accordons plus d’importance aux droits individuels qu’à l’efficacité. » À l’ère de la montée de l’autoritarisme et des cybermenaces, les choix faits aujourd’hui pourraient définir les libertés que nous protégerons demain.

Les sources incluent :

ReclaimTheNet.org

BigBrotherWatch.org

PressReader.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Les informations personnelles de milliards d’utilisateurs de Gmail sont gravement menacées par une attaque de phishing « sophistiquée »

Google a émis un avertissement urgent à ses 3 milliards d’utilisateurs de Gmail après avoir confirmé une arnaque de phishing « sophistiquée » ciblant des expéditeurs de courrier électronique sans méfiance – et les cybercriminels sont si sournois que même les techniciens chevronnés y tombent.

3–5 minutes

Le développeur Nick Johnson a tiré la sonnette d’alarme sur les réseaux sociaux , après avoir failli se faire avoir par une arnaque si astucieuse qu’elle utilisait l’infrastructure de Google pour paraître légitime.

« J’ai récemment été la cible d’une attaque de phishing extrêmement sophistiquée », a déclaré Johnson le 16 avril. 

« Il exploite une vulnérabilité dans l’infrastructure de Google, et étant donné leur refus de la corriger, nous sommes susceptibles de le voir beaucoup plus souvent. »

Le piège s’est présenté sous la forme d’un courrier électronique d’apparence officielle affirmant qu’il avait été frappé d’une assignation à comparaître liée à son compte Google. 

Cela provenait même de ce qui semblait être une véritable adresse Google.

« Le seul indice qu’il s’agit d’un hameçonnage est qu’il est hébergé sur sites.google.com au lieu de accounts.google.com », a noté Johnson dans le fil de discussion X.

En cliquant sur le lien, vous êtes redirigé vers un faux « portail d’assistance » contenant des copies exactes des véritables pages de connexion de Google, conçues pour inciter les utilisateurs à fournir leurs informations d’identification.

« À partir de là, ils récupèrent probablement vos identifiants de connexion et les utilisent pour compromettre votre compte », a averti Johnson. 

« Cela le place même dans la même conversation que d’autres alertes de sécurité légitimes. »

Pire encore, l’e-mail douteux a passé le contrôle DKIM (DomainKeys Identified Mail) de Google, ce qui signifie que Gmail l’a traité comme un simple message banal .

Dans une récente déclaration au Daily Mail, un porte-parole de Google a déclaré : « Nous sommes conscients de ce type d’attaque ciblée de la part de cet acteur malveillant et avons déployé des mesures de protection pour bloquer cette voie d’abus. En attendant, nous encourageons les utilisateurs à adopter l’authentification à deux facteurs et les clés d’accès, qui offrent une protection efficace contre ce type de campagnes de phishing. »

Google affirme avoir déjà bloqué la faille qui a permis l’arnaque et a publié de nouveaux conseils pour aider les utilisateurs à éviter des pièges de courrier électronique similaires.

« Google ne vous demandera aucun de vos identifiants de compte — y compris votre mot de passe, vos mots de passe à usage unique, vos notifications push de confirmation, etc. — et Google ne vous appellera pas », a souligné le porte-parole.

Les cybercriminels à l’origine de cette arnaque ont utilisé Google Sites pour donner à leur stratagème un air de crédibilité, en s’appuyant sur le fait que la plupart des gens ne remettront pas en question une URL qui leur semble familière.

« Ces escroqueries sont conçues pour paraître aussi réelles que possible », a déclaré Johnson, avertissant que de nombreux utilisateurs ne remarqueront pas la légère modification du nom de domaine, ce qui pourrait signifier de gros maux de tête pour leurs comptes bancaires ou leur identité.

Les utilisateurs de Gmail qui s’appuient uniquement sur des mots de passe sont particulièrement vulnérables.

Si un pirate informatique récupère vos informations de connexion et que vous n’utilisez pas l’authentification à deux facteurs (2FA) ou les mots de passe, il peut accéder directement à votre compte.

Une clé d’accès, en revanche, est une méthode de connexion liée au matériel que les pirates ne peuvent pas simplement utiliser, ce qui en fait un pari beaucoup plus sûr.

Parallèlement, les tentatives d’hameçonnage deviennent de plus en plus difficiles à repérer. Les signaux d’alarme incluent des salutations vagues, un ton urgent et des liens cliquables exigeant une action immédiate, notamment concernant les données personnelles ou l’accès au compte.

Même si Google envoie des e-mails concernant des problèmes de compte, le géant de la technologie affirme que vous devez toujours réfléchir à deux fois avant de cliquer.

Selon la page Confidentialité et Conditions d’utilisation de Google , « Lorsque nous recevons une demande d’une agence gouvernementale, nous envoyons un courriel au compte utilisateur avant de divulguer des informations. Si le compte est géré par une organisation, nous en informerons l’administrateur du compte. »

Et si vous pensez avoir compris, Google ajoute : « Nous ne vous enverrons pas de notification si la loi l’interdit, conformément aux termes de la demande. Nous vous enverrons une notification après la levée de l’interdiction légale, par exemple à l’expiration d’une période de confidentialité légale ou ordonnée par un tribunal. »

En résumé : si vous recevez un e-mail douteux vous demandant des informations personnelles, ne cliquez pas. 

Ouvrez plutôt le site dans une fenêtre de navigateur distincte et vérifiez la source.

Voir l’article original cliquez ci-dessous ;

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Bruxelles redouble d’efforts en matière de censure sur les réseaux sociaux

Von der Leyen a averti X et Meta que l’UE appliquerait ses règles de désinformation, quel que soit le PDG ou ce que dit Washington.

3–5 minutes

Dans une attaque claire contre les entreprises de médias sociaux basées aux États-Unis qui ont mis la liberté d’expression sur leurs bannières et se sont alliées à l’administration Trump – Meta et X – la présidente de la Commission européenne, Ursula von der Leyen, a averti que Bruxelles ne laisserait pas les entreprises technologiques mondiales s’en tirer en ignorant les règles de modération de contenu établies dans le tristement célèbre outil de censure de l’UE, le Digital Services Act (DSA) – quel que soit l’endroit où elles se trouvent ou qui les gère.

« Les règles votées par nos colégislateurs doivent être appliquées », a déclaré von der Leyen à Politico lundi 22 avril.

« C’est pourquoi nous avons ouvert des poursuites contre TikTok, X, Apple, Meta, pour n’en citer que quelques-uns », a-t-elle ensuite poursuivi, avant d’affirmer que le parti pris politique n’avait rien à voir avec l’application du DSA par Bruxelles :

Nous appliquons les règles de manière juste, proportionnelle et impartiale. Peu importe l’origine d’une entreprise ou son dirigeant. La protection des personnes est notre priorité.

S’il est vrai que toutes ces entreprises sont confrontées à des mesures punitives de la part des régulateurs de l’UE à des degrés divers, dans la plupart des cas, l’UE n’a jusqu’à présent infligé que des amendes « modestes » de quelques millions d’euros, et principalement pour non-respect du Digital Markets Act (DMA), et non du DSA, beaucoup plus sinistre.

Cependant, le cas du X d’Elon Musk est différent, ce qui contredit entièrement l’argument de « l’absence de parti pris politique ». 



Nous avons rapporté plus tôt ce mois-ci que Bruxelles s’apprêtait à imposer une amende sans précédent d’un milliard d’euros à l’entreprise à l’issue d’une enquête en cours sur ses violations présumées de la DSA qui a débuté en 2023, juste après que Musk a acheté le site Web et l’a transformé en une pierre angulaire de la liberté d’expression en ligne.

Plus précisément, l’affaire porte sur le refus de X de contrôler et de censurer les contenus « illégaux » – tout ce qui est considéré comme « nuisible » ou « désinformation » par Bruxelles – ainsi que de partager ses données avec des acteurs externes, tels que des chercheurs, des régulateurs ou des « vérificateurs de faits ». Des choses raisonnables, compte tenu des révélations des Twitter Files , que beaucoup semblent avoir oubliées.

Meta pourrait bientôt être confronté à une situation similaire, car il est frappé par les mêmes critiques de Bruxelles depuis que Mark Zuckerberg a abandonné ses vérificateurs de faits pour être politiquement biaisés et exécuter la volonté du Parti démocrate et des différentes agences de renseignement américaines dans leur modération de contenu. 

En d’autres termes, les entreprises américaines qui ont activement travaillé à restaurer et à protéger la liberté d’expression sont désormais contraintes par Bruxelles de permettre aux vérificateurs de faits de l’UE (les mêmes organisations qui ont été évincées par Zuckerberg) de reprendre leur précédent travail de censure dans le cadre du DSA.

Même si von der Leyen agit comme si tous les géants mondiaux de la technologie étaient traités de la même manière à Bruxelles, les principaux partis de la « coalition Ursula » du Parlement européen ont clairement indiqué plus tôt cette année que leur problème concernait spécifiquement les « oligarques de la technologie » qui se sont alignés sur le président Trump. 

De plus, la prétendue désinformation qui se propage sur X et Meta a été citée comme l’une des principales raisons pour lesquelles l’UE travaille sur le soi-disant Bouclier démocratique , une boîte à outils supplémentaire pour aider à contrôler le contenu en ligne et à faire respecter les règles DSA existantes.

La position de plus en plus agressive de l’UE à l’égard des plateformes axées sur la liberté d’expression (et des entreprises américaines en général) n’a pas échappé à l’attention de l’administration Trump. En février dernier, le vice-président J.D. Vance a dénoncé l’insistance de l’UE sur la censure politique , tandis que le ciblage « injuste » des géants technologiques américains est au cœur du conflit commercial qui s’intensifie entre Washington et Bruxelles.

Compte tenu de tout ce qui s’est passé depuis l’arrivée de Trump au pouvoir, l’affirmation de von der Leyen selon laquelle l’application de la loi DSA n’est pas politique est tout simplement ridicule. Peut-être devrait-elle commencer à vérifier elle-même les faits la prochaine fois.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Microsoft élargit son outil de rappel basé sur l’IA, qui enregistre et indexe l’activité des utilisateurs.

Une machine à mémoire intégrée déguisée en commodité, Recall transforme silencieusement chaque moment passé devant votre clavier en un historique consultable.

2–3 minutes

La nouvelle initiative de Microsoft pour déployer Recall , une fonctionnalité alimentée par l’IA dans Windows 11 qui enregistre automatiquement l’activité des utilisateurs toutes les quelques secondes, ravive de profondes inquiétudes parmi ceux qui se concentrent sur la confidentialité numérique et la sécurité personnelle.

Initialement suspendu suite à une vague de réactions négatives l’année dernière, Recall est discrètement revenu dans une version préliminaire de Windows 11 (Build 26100.3902), désormais disponible pour certains testeurs. L’outil prend des instantanés de l’écran de l’utilisateur à intervalles réguliers et crée une chronologie consultable de tout, de l’utilisation des applications aux sites web visités et aux documents consultés. Si Microsoft présente cet outil comme un outil pratique, les défenseurs de la vie privée y voient un mécanisme de surveillance déguisé.

L’entreprise affirme que l’outil est sûr. Il nécessite l’inscription à Windows Hello pour accéder aux captures d’écran enregistrées. Microsoft décrit cette fonctionnalité comme un moyen de « trouver et d’accéder rapidement à n’importe quelle application, site web, image ou document, simplement en décrivant son contenu ». Les utilisateurs, précise l’entreprise, peuvent mettre l’enregistrement en pause et choisir ce qui est sauvegardé.

Mais ces assurances sont dérisoires face à ceux qui mettent en garde contre les conséquences plus larges. Le fait que Recall soit une option n’empêche pas l’exposition des données de personnes qui ne l’ont jamais activée. Si une personne ayant activé Recall reçoit une photo, un message ou un document confidentiel, celui-ci sera capturé, analysé et indexé en toute discrétion par l’outil, indépendamment de l’intention de l’expéditeur ou des outils de confidentialité utilisés.

La capacité de cette fonctionnalité à stocker et cataloguer des données de manière aussi exhaustive soulève de nombreuses questions juridiques, sécuritaires et éthiques. Les avocats, les gouvernements et les opérateurs de logiciels espions bénéficieraient d’un accès sans précédent à la vie numérique d’un utilisateur ; non pas par force brute ou par hameçonnage, mais grâce à un outil intégré qui crée un timelapse de l’activité informatique.

Pour ceux qui s’inquiètent de l’incursion croissante de l’IA dans l’informatique quotidienne, Recall est devenu un cas d’école. Ses détracteurs l’ont présenté comme faisant partie d’une tendance plus large où les entreprises intègrent des fonctionnalités d’IA à leurs plateformes existantes non pas pour servir les utilisateurs, mais pour favoriser l’engagement, la collecte de données ou la fidélisation.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention