L’application de messagerie Signal menace de quitter la France en raison de revendications anti-cryptage

Meredith Whittaker, présidente de l’application de messagerie américaine Signal, a menacé de la retirer de France en raison d’un projet de loi où le gouvernement exige la possibilité de consulter les conversations privées.

4–5 minutes

Dans l’article 8 du projet de loi « Sortir la France du piège du narcotrafic » , la France a déclaré qu’elle souhaitait que les applications de messagerie cryptées telles que Signal et WhatsApp et les services de messagerie électronique cryptés tels que Proton Mail fournissent aux autorités les données décryptées de leurs utilisateurs dans les 72 heures suivant la demande.

Cette mesure a suscité une opposition importante de la part des défenseurs de la vie privée, des entreprises technologiques et des experts en cybersécurité en raison de ce qu’ils considèrent comme ses implications en termes d’affaiblissement du cryptage et de compromission de la sécurité des utilisateurs à l’échelle mondiale.

Le Sénat français l’avait adopté le 4 mars et il devait être examiné à nouveau à l’Assemblée nationale.

Le 17 mars, le projet de loi a été examiné par la commission législative de l’Assemblée, ce qui a suscité une forte opposition.

Whittaker a publié un long message sur X le 19 mars, tirant la sonnette d’alarme sur la loi française qui sera bientôt votée.

Elle a condamné cette attaque, la qualifiant d’« attaque malhonnête et insensée », qui contredit le consensus des experts et menace à la fois la cybersécurité mondiale et le droit fondamental à la vie privée.

« La loi française sur le trafic de stupéfiants obligerait les fournisseurs de communications cryptées, comme Signal, à créer une porte dérobée permettant au gouvernement de s’inscrire à n’importe quel groupe ou chat de son choix. Au nom de la lutte contre le trafic de drogue », a déclaré Whittaker.

« Alors que ceux qui font la promotion de cette mauvaise loi se sont empressés d’assurer aux politiciens français que la proposition ne « brise pas le cryptage », leurs arguments sont aussi ennuyeux que périmés [et] ridicules. »

Elle a souligné que « le chiffrement de bout en bout ne doit comporter que deux extrémités : l’expéditeur et le(s) destinataire(s). Sinon, il est détourné et toute autre méthode « porte dérobée » « porte ouverte sur la confidentialité des communications ».

Whittaker a noté qu’une tentative similaire de contournement du cryptage avait été empêchée avec succès au Royaume-Uni en 2019 et a souligné que la France devrait également abandonner sa proposition actuelle.

Elle a averti que les solides garanties de confidentialité de Signal étaient menacées, soulignant que pour quiconque souhaitant les saper, « au lieu de se battre avec des mathématiques incassables, il leur suffit de compromettre un employé du gouvernement français ou le logiciel fourni par le fournisseur utilisé pour charger des agents du gouvernement dans vos conversations privées ».

Whittaker a déclaré que Signal quitterait le marché français plutôt que de se conformer à la loi contestée sur la protection de la vie privée.

« En ce moment particulièrement, il y a tout simplement trop de choses qui dépendent de Signal, de notre capacité à forger un avenir dans lequel les communications privées perdurent, pour permettre une telle atteinte pernicieuse », a-t-elle déclaré.

Matthew Hodgeson, PDG d’Element, une plateforme de communication sécurisée utilisée par les gouvernements, a déclaré au média spécialisé Computer Weekly fin février qu’Element craignait que les propositions françaises ne soient « techniquement pas réalisables sans affaiblir fondamentalement la sécurité des services de messagerie et de courrier électronique ».

Matthias Pfau, PDG de Tuta Mail, un fournisseur allemand de messagerie cryptée, a déclaré que la proposition française n’était ni nécessaire ni proportionnelle.

L’association française de défense des droits et libertés numériques La Quadrature du Net a dressé un panorama de la loi française sur le narcotrafic, mettant en évidence ce qu’elle considère comme de nombreux éléments problématiques.

Outre la porte dérobée de cryptage, elle a affirmé que la loi ne s’appliquait pas seulement aux trafiquants de drogue mais pouvait également être utilisée pour surveiller les militants.

Une disposition de la loi classe comme secret tout document détaillant les méthodes utilisées pour les techniques de surveillance au cours des enquêtes.

Cela porte atteinte au droit à une défense adéquate et empêche le public de comprendre toute l’étendue des capacités de surveillance de la police judiciaire, a déclaré le groupe.

La loi permet également à la police d’activer à distance les microphones et les caméras des appareils fixes et mobiles connectés – ordinateurs, téléphones, etc. – pour « espionner » les personnes qui les utilisent.

Les organismes internationaux de défense des droits de l’homme ont reconnu que le cryptage était fondamental pour la vie privée et d’autres droits.

En 2022, le Comité européen de la protection des données et le Contrôleur européen de la protection des données ont déclaré que le chiffrement « contribue de manière fondamentale » à la vie privée, à la liberté d’expression et à la croissance numérique.

La Cour européenne des droits de l’homme a reconnu l’importance de l’anonymat pour la protection de la liberté d’expression et, en février 2024, a jugé que la demande de la Russie concernant les clés de cryptage de Telegram violait les lois sur les droits de l’homme.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

La loi britannique sur la « sécurité » en ligne est entrée en vigueur, et la liberté d’expression est mise en garde.

Une loi censée protéger les utilisateurs confère désormais aux plateformes de larges pouvoirs pour effacer les discours légaux.

2–3 minutes

La première phase de la loi britannique sur la sécurité en ligne , une loi de censure radicale, est entrée en vigueur.

Les exigences imposées aux plateformes en ligne comprennent l’identification et la suppression des contenus illégaux, mais aussi la prise de mesures pour réduire le risque de publication de tels contenus.

La loi inclut les propos sincères et non violents dans la catégorie « illégaux » que les plateformes doivent supprimer. Les règles de la première phase couvrent une longue liste d’« infractions prioritaires » – 130 types de contenus au total, regroupés en 17 catégories.

Les objectifs déclarés de la législation sont une chose, mais ses nombreux détracteurs n’ont cessé d’avertir que son interprétation et sa mise en œuvre présentent un niveau de risque inacceptable d’étouffement de la liberté d’expression légale.

La catégorie « Ingérence étrangère » vise également à supprimer les propos véridiques. Cette définition découle de la définition de « mauvaise interprétation » figurant dans la loi de 2023 sur la sécurité nationale, sur laquelle repose la loi sur la sécurité en ligne.

Cette définition interdit, entre autres, de « présenter des informations d’une manière qui constitue une fausse déclaration, même si une partie ou la totalité de ces informations sont vraies ».

Une autre infraction prioritaire est la « peur » de la violence – comme « la peur ou la provocation de la violence » et « le fait de faire craindre la violence à des personnes ».

Étant donné la propension des hauts fonctionnaires et législateurs britanniques, anciens et actuels, à confondre discours non violent et violence, il s’agit là d’une autre source d’inquiétude.

À la suite des émeutes de Southport , de nombreux hauts fonctionnaires ont considéré à plusieurs reprises l’incitation à la violence comme étant assimilable à de la « désinformation », tandis que le Premier ministre Keir Starmer a accusé les partisans de l’activiste et journaliste Tommy Robinson de considérer que leur position équivalait à la recherche d’un « frisson indirect dans la violence de rue ».

La catégorie de la haine raciale fait partie des infractions prioritaires de la loi, et cela s’appuie sur la loi sur l’ordre public de 1986 et sur la manière dont elle traite l’incitation à la haine raciale – mais aussi sur les cas où la haine raciale est « susceptible » d’être suscitée.

Et cela peut se faire non seulement par le comportement, mais aussi par les mots, y compris ceux qui sont menaçants, abusifs et « insultants ».

Ce type de définition laisse beaucoup de place à l’interprétation, et même avant la première phase de mise en œuvre de la loi sur la sécurité en ligne, de nombreux citoyens britanniques seraient arrêtés ou interrogés pour avoir prétendument « attisé la haine raciale » avec leurs publications sur les réseaux sociaux.

Confrontées au choix entre payer des amendes colossales ou opter pour une suppression excessive, les entreprises technologiques devraient opter pour la seconde option.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Le fondateur de Telegram autorisé à quitter la France

Pavel Durov, fondateur et PDG de l’application de messagerie sociale Telegram, a été autorisé à rentrer chez lui à Dubaï alors que les autorités françaises poursuivent leur enquête sans précédent contre lui.

2–3 minutes

Le milliardaire de la technologie a été arrêté en août après avoir été accusé de ne pas avoir correctement modéré son application pour réduire la criminalité.

M. Durov nie ne pas avoir coopéré avec les forces de l’ordre concernant le trafic de drogue, les contenus pédopornographiques et la fraude. Telegram a précédemment nié avoir une modération insuffisante.

C’est la première fois qu’un leader technologique est arrêté pour une criminalité commise sur sa plateforme.

M. Durov a déclaré dans un message sur sa chaîne Telegram : « Le processus est en cours, mais c’est agréable d’être à la maison. »

L’homme de 40 ans a été arrêté en août 2024 alors qu’il arrivait à Paris à bord de son jet privé, et les juges français ne l’ont dans un premier temps pas autorisé à quitter la France.

Mais le parquet de Paris a indiqué lundi à la BBC que « les obligations de contrôle judiciaire » avaient été suspendues entre le 15 mars et le 7 avril.

Aucun détail supplémentaire n’a été donné sur les conditions de sa libération de France.

M. Durov vit à Dubaï et est né en Russie, dont il a la nationalité, ainsi qu’en France, aux Émirats arabes unis et dans l’île caribéenne de Saint-Kitts-et-Nevis.

Telegram est particulièrement populaire en Russie, en Ukraine et dans les anciens États de l’Union soviétique ainsi qu’en Iran.

« Des efforts incessants »

Telegram est utilisé par environ 950 millions de personnes dans le monde et s’est auparavant positionné comme une application axée sur la confidentialité de ses utilisateurs, plutôt que sur les politiques normales privilégiées par d’autres sociétés mondiales de médias sociaux.

Mais des reportages de la BBC et d’autres organismes de presse ont mis en évidence que des criminels utilisaient l’application pour faire la publicité de médicaments, ainsi que pour proposer des services de cybercriminalité et de fraude et, plus récemment, du matériel d’abus sexuels sur mineurs.

Cela a conduit un expert à le qualifier de « le dark web dans votre poche ».

L’entreprise a précédemment déclaré que son arrestation était injuste et qu’il ne devrait pas être tenu responsable de ce que font les utilisateurs sur la plateforme.

Depuis son domicile à Dubaï, M. Durov a remercié les juges français de l’avoir laissé rentrer chez lui.

Il a également remercié ses avocats pour leurs « efforts incessants pour démontrer que, lorsqu’il s’agit de modération, de coopération et de lutte contre la criminalité, Telegram a non seulement respecté, mais dépassé, pendant des années, ses obligations légales ».

Cependant, depuis l’arrestation, Telegram a apporté une série de changements à son mode de fonctionnement.

Elle a rejoint le programme de la Fondation Internet Watch, qui vise à aider à trouver, supprimer et signaler les contenus d’abus sexuels sur mineurs partagés en ligne.

Elle a également annoncé que les adresses IP et les numéros de téléphone de ceux qui enfreignent ses règles seront remis à la police en réponse à des demandes légales valables.

L’entreprise a également publié des rapports de transparence sur la quantité de contenu supprimé – une pratique courante du secteur à laquelle elle avait auparavant refusé de se conformer.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

L’UE présente sa répression comme une forme de transparence, mais ses pouvoirs étendus ressemblent beaucoup à un discours contrôlé par l’État.

L’Union européenne a condamné la pression croissante exercée par les États-Unis pour assouplir sa réglementation sur la désinformation, la qualifiant d’atteinte à sa « souveraineté réglementaire ».

4–5 minutes

Le conflit, qui s’est intensifié ces derniers mois, porte sur les règles strictes de l’UE qui obligent les grands réseaux sociaux comme X, Google, Facebook, Apple et Amazon à lutter contre la diffusion de fausses informations en ligne.

L’administration Trump, soutenue par des magnats de la tech comme Elon Musk et Mark Zuckerberg, pousse Bruxelles à assouplir ces mesures, sous peine de lourdes conséquences économiques. Washington affirme que la réglementation européenne cible injustement les entreprises américaines et constitue une tentative de censure de la liberté d’expression, une affirmation que les responsables européens rejettent fermement.

Pour Bruxelles, ce différend n’est pas un désaccord commercial, mais une remise en cause directe de l’autorité de la Commission européenne. « Si nécessaire, l’UE réagira rapidement et avec détermination pour défendre ses droits et son autonomie réglementaire contre des mesures injustifiées », a déclaré le mois dernier Thomas Regnier, porte-parole de la Commission pour la souveraineté technologique.

La Commission européenne insiste sur le fait que sa loi sur les services numériques (DSA) vise à garantir la transparence et la responsabilité des géants du numérique, plutôt qu’à supprimer les contenus licites. Pourtant, le texte des propositions ne le laisse pas présager.

La confrontation a pris une tournure plus radicale en février, lorsque le président Trump a publié un mémorandum mettant en garde contre les droits de douane imposés aux pays imposant « des extorsions à l’étranger et des amendes et pénalités injustes » aux entreprises technologiques américaines. Ce mémorandum a été suivi par le discours du vice-président J.D. Vance à Munich, où il a comparé les régulateurs européens aux censeurs de l’ère soviétique, suggérant que leurs politiques visaient à étouffer la liberté d’expression sous couvert de lutte contre la désinformation.

Pour jeter de l’huile sur le feu, Elon Musk, désormais membre de l’administration Trump, a publié une image du drapeau de l’UE retouchée pour y figurer une faucille et un marteau, accompagnée du slogan : « Imaginez que vous aimez tellement être gouverné que vous voulez un gouvernement pour votre gouvernement. » Le message visait clairement la position réglementaire affirmée de l’UE.

La Commission européenne reste déterminée à défendre ce qu’elle appelle « l’effet Bruxelles », l’influence mondiale exercée par son cadre réglementaire. « Si nécessaire, l’UE réagira rapidement et avec détermination pour défendre ses droits et son autonomie réglementaire contre des mesures injustifiées », a déclaré M. Regnier.

Bruxelles considère la pression extérieure visant à modifier sa législation numérique comme une attaque contre sa capacité à gouverner son propre marché.

En réponse aux droits de douane imposés par Washington, Bruxelles a déjà imposé des contre-mesures sur des produits américains tels que le bourbon et les motos Harley-Davidson. Trump, de son côté, a menacé d’imposer des droits de douane de 200 % sur le vin et le champagne français, suscitant des craintes d’une nouvelle escalade des représailles économiques.

L’ancienne conseillère en politique commerciale du Royaume-Uni, Allie Renison, prédit que la réglementation des réseaux sociaux restera un point de friction majeur dans les relations entre les États-Unis et l’UE. « La Maison Blanche considère qu’il s’agit à la fois d’une tentative de couper les ailes aux entreprises américaines prospères et d’un problème de censure », a-t-elle déclaré au Telegraph , suggérant que Washington utilisera ces griefs pour justifier des politiques commerciales punitives contre l’Europe.

Friedrich Merz, le nouveau chancelier allemand, devrait adopter une position ferme face aux pressions américaines visant à censurer l’Europe. Après une élection marquée par des inquiétudes concernant la désinformation en ligne, Merz a critiqué Trump et Musk, comparant leur ingérence à celle de Moscou. Ses propos font suite au soutien apparent de Musk au parti allemand Alternative pour l’Allemagne (AfD), qui a obtenu une deuxième place historique aux élections.

Les responsables européens rejettent toutefois l’idée que la DSA porte atteinte à la liberté d’expression. Ils affirment qu’elle exige simplement des plateformes qu’elles atténuent les risques systémiques tels que la désinformation et les contenus illicites, tout en préservant les droits des utilisateurs. Michael McGrath, commissaire européen à la Justice, a insisté : « La DSA n’a absolument rien à voir avec la censure ; c’est même, à bien des égards, le contraire. »

De son côté, la Commission européenne conserve des pouvoirs d’application étendus en vertu de la DSA, y compris la possibilité d’imposer de lourdes amendes ou, dans des cas extrêmes, de suspendre des services.

Au-delà de l’UE, la Grande-Bretagne devrait également subir la pression des États-Unis concernant sa loi sur la sécurité en ligne (Online Safety Act) , qui prévoit de lourdes sanctions pour les réseaux sociaux qui ne suppriment pas les contenus préjudiciables. Les experts prévoient que les négociateurs commerciaux américains exigeront une révision de cette loi dans le cadre de tout accord économique entre Trump et le Premier ministre britannique Keir Starmer.

« Bien que les États-Unis et le Royaume-Uni semblent avoir un terrain d’entente pour adopter une approche plus favorable à l’innovation en matière de réglementation de l’IA que l’UE, notre gouvernement n’est pas hors de vue », a averti Renison, prédisant que les mesures de sécurité en ligne de la Grande-Bretagne seront un point de friction dans les futures négociations commerciales.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Bienvenue sur Skynet : Google dévoile des modèles d’IA pour alimenter les robots physiques

Google DeepMind a présenté deux nouveaux modèles d’IA conçus pour intégrer l’intelligence artificielle au monde physique en alimentant des robots. Google n’est pas la seule entreprise à poursuivre cet objectif à un rythme soutenu : OpenAI et Tesla conçoivent également des robots entièrement contrôlés par l’IA.

2–3 minutes

CNBC  rapporte  que DeepMind, filiale de Google, a dévoilé deux nouveaux modèles d’IA, Gemini Robotics et Gemini Robotics-ER (raisonnement étendu), qui devraient révolutionner la façon dont les robots interagissent avec le monde physique. Ces modèles, fonctionnant sur Gemini 2.0 de Google, sont conçus pour s’adapter à différentes situations, comprendre et répondre rapidement aux instructions, et manipuler les objets avec dextérité. L’objectif de l’entreprise est de créer des robots autonomes obéissant aux ordres de l’IA sans intervention humaine.

Google a annoncé un partenariat avec Apptronik, un développeur robotique basé au Texas, pour construire la prochaine génération de robots humanoïdes équipés de Gemini 2.0. Apptronik, connu pour sa collaboration avec Nvidia et la NASA, a récemment reçu un financement de Google de 350 millions de dollars.

Des vidéos de démonstration publiées par Google présentent des robots Apptronik équipés de nouveaux modèles d’IA effectuant diverses tâches, comme brancher des appareils sur des multiprises, remplir des boîtes à lunch, déplacer des légumes en plastique et refermer des sacs, le tout en réponse à des commandes vocales. Bien qu’aucun calendrier de commercialisation n’ait été communiqué, les vidéos offrent un aperçu des applications potentielles de ces robots dotés d’IA.

Google n’est pas la seule entreprise à s’intéresser à l’IA pour la robotique. OpenAI a récemment investi dans Physical Intelligence, une startup qui vise à intégrer l’IA polyvalente au monde physique en développant des modèles et des algorithmes d’IA à grande échelle pour les robots. Tesla a également fait son entrée dans le secteur de la robotique humanoïde avec son robot Optimus.

Sundar Pichai, PDG de Google, considère la robotique comme un terrain d’essai précieux pour traduire les avancées de l’IA dans le monde réel. Il a déclaré que les robots utiliseraient les modèles d’IA multimodaux de Google pour s’adapter à leur environnement et effectuer des changements en temps réel.

Lire la suite sur Breitbart.com

Lire l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Le jeu de l’identité numérique au Royaume-Uni : la finance et le gouvernement encouragent les cartes d’identité d’entreprise

Une vaste initiative en matière d’identité numérique pourrait remodeler la vérification des entreprises au Royaume-Uni, avec la participation des grandes institutions financières, technologiques et gouvernementales.

2–3 minutes

Une initiative majeure est en cours au Royaume-Uni pour développer un prototype d’identifiant d’entreprise numérique, avec de grandes sociétés financières et technologiques, des agences gouvernementales et des régulateurs, ainsi que des organismes comme le Tony Blair Institute for Global Change , parmi les principales forces derrière cette initiative.

Le prototype, qui serait « entièrement fonctionnel », est défini comme « une représentation numérique unique d’une entité commerciale à des fins de vérification numérique » – et le lancement d’identifiants numériques personnels est considéré comme un élément clé de l’identifiant numérique de l’entreprise.

Cette définition figure dans un document publié par le Centre pour l’innovation financière et la technologie (CFIT), lancé à la suite d’un rapport commandé en 2020 par le chancelier de l’Échiquier de l’époque et soumis par Ron Kalifa, une étude indépendante identifiant les domaines prioritaires du secteur fintech britannique. Ce document a bénéficié d’un financement de 5 millions de livres sterling du Trésor et d’un demi-million de livres sterling de la City de Londres.

Aujourd’hui, les membres de la coalition CFIT comprennent Barclays, HSBC UK, Lloyds Bank, Natwest, Matercard, Visa, Santander, ainsi que Google, Global Legal Entity Identifier Foundation (GLEIF), Yoti, Bank of England, City of London, le Trésor et des sociétés qui sont en fait des courtiers en données, comme Equifax, Experian et Lexis Nexis Risk Solutions.

Collectivement, ils soutiennent le projet de loi britannique sur les données (utilisation et accès), qui a été critiqué pour avoir affaibli les protections du traitement des données en introduisant davantage de prises de décision automatisées affectant le public et en inaugurant un cadre d’identification numérique – mais sans garanties appropriées contre le partage des données d’identification numérique des personnes au-delà d’une portée limitée définie dans l’objectif initial.

Tout cela, comme c’est souvent le cas de nos jours, est masqué par le titre même du rapport : « Combattre la criminalité économique grâce à la vérification numérique ».

Ce que le rapport – et son « groupe unique de 70 personnes » – espère accomplir, c’est amener le gouvernement, les régulateurs et le secteur financier à travailler ensemble et à « mettre en place les cadres et initiatives réglementaires nécessaires ».

Cela inclurait l’adoption par le gouvernement britannique de l’identifiant numérique d’entreprise pour les déclarations fiscales, ainsi que les déclarations annuelles exigées des sociétés enregistrées au Royaume-Uni pour prouver l’exactitude des données détenues par Companies House.

Le rapport du CFIT soutient également la loi sur la criminalité économique et la transparence des entreprises (ECCTA), exigeant que toutes les personnes enregistrant ou gérant des entreprises vérifient leur identité via GOV.UK One Login ou un fournisseur de services d’entreprise autorisé (ACSP).

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

La lutte pour révéler la guerre secrète du Royaume-Uni contre la vie privée

Les législateurs des deux côtés de l’Atlantique exigent de la transparence alors qu’Apple lutte contre un ordre secret du gouvernement visant à affaiblir le cryptage.

2–3 minutes

Le tribunal des pouvoirs d’enquête du Royaume-Uni est confronté à une pression accrue pour lever les dispositions de confidentialité entourant l’ordre du ministère de l’Intérieur de créer une porte dérobée de cryptage dans la protection avancée des données iCloud d’Apple.

La principale demande est de rendre l’ordonnance secrète (Avis de capacité technique, TNC), ainsi que les audiences qui en découlent publiques – compte tenu de l’ampleur de l’intérêt public concernant ce cas d’affaiblissement du cryptage imposé par le gouvernement.

Plus :  Explication de la répression du chiffrement iCloud au Royaume-Uni : réponses à vos questions sur la décision d’Apple et son impact sur vous

Une audience sur la question a eu lieu aujourd’hui, sans qu’aucun détail ne soit communiqué au public.

Un groupe de membres démocrates et républicains du Sénat et de la Chambre des représentants des États-Unis ont rédigé une lettre demandant la fin du « secret » entourant cette énorme controverse.

Bien que l’ordonnance elle-même interdise à Apple de confirmer que la société a reçu le TNC, il est devenu public que cela s’est produit, que les protections de cryptage pour les utilisateurs britanniques ont déjà été supprimées et que le géant de la technologie tente d’inverser cette situation dans le cadre d’une procédure à huis clos devant le Tribunal.

Les membres du Congrès souhaitent voir de la transparence autour de l’audience de ce vendredi et de toutes les audiences ultérieures au Royaume-Uni, dans le cas d’Apple ou de toute autre entreprise américaine.

« Les audiences secrètes des tribunaux auxquelles participent les agences de renseignement et une poignée d’individus approuvés par elles ne permettent pas de contester avec force des questions hautement techniques », indique la lettre.

Cela a un impact négatif sur la capacité du Congrès à exercer un contrôle et menace la sécurité et la vie privée des Américains, affirment les législateurs américains.

Au Royaume-Uni même, des défenseurs de la vie privée et de la liberté d’expression, ainsi que certains politiciens et partis, se sont exprimés contre les actions du gouvernement.

« Si le ministère de l’Intérieur veut avoir un accès effectivement illimité aux données privées du grand public, il devrait expliquer son cas au public », a déclaré le député conservateur Sir David Davis.

Des représentants des Libéraux-démocrates et de Reform UK expriment des sentiments similaires. Parallèlement, Big Brother Watch , Index on Censorship et Open Rights Group ont également écrit au Tribunal des pouvoirs d’enquête et à son président, Lord Justice Rabinder Singh, pour demander que l’affaire impliquant Apple soit rendue publique.

Selon la lettre, cela « implique les droits à la vie privée de millions de citoyens britanniques qui utilisent la technologie d’Apple, ainsi que des utilisateurs internationaux d’Apple » – ce qui signifie qu’une question d’un tel intérêt public ne doit pas être traitée en secret.

Privacy International est allé plus loin et a déposé une plainte contre l’utilisation des ordres secrets des TNC, décrits par le groupe comme des « pouvoirs de surveillance dangereux, disproportionnés et intrusifs » qui « portent atteinte à la vie privée et à la sécurité des personnes partout dans le monde ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

La Roumanie cible les « contenus illégaux en ligne » avant la reprise des élections

Le gouvernement roumain a déclaré qu’il intensifierait ses efforts pour « lutter contre les contenus illégaux en ligne ».

La nouvelle du 14 mars est survenue à l’approche d’élections présidentielles controversées, suite à l’annulation du scrutin de novembre dernier en raison d’allégations, jugées non fondées dans les médias roumains, d’ingérence russe.

5–7 minutes

Ivan Bogdan, ministre de l’Économie, de la Recherche, de l’Innovation et de la Numérisation, a annoncé des mesures fermes contre la manipulation en ligne, soulignant que la Roumanie utilisait déjà trois types de logiciels avancés pour détecter les « faux contenus ».

Il a déclaré que la Roumanie appliquait une législation européenne stricte et ne tolérait pas la désinformation en ligne.

Bogdan a également souligné qu’il existait des mécanismes mis en œuvre aux niveaux mondial, européen et national pour lutter contre la désinformation et les contenus manipulateurs.

Dans un communiqué de presse du 13 mars, le ministre de l’Éducation, Daniel David, a déclaré : « La liberté d’expression peut perdurer tant qu’elle ne promeut pas de contenu illégal, tant qu’elle ne porte pas atteinte à la dignité humaine, tant qu’elle ne constitue pas une forme d’intimidation. »

David a également partagé un guide sur la lutte contre le contenu illégal en ligne pour les enseignants, les parents, les élèves et les étudiants « afin qu’ils comprennent quels sont leurs droits et comment ils peuvent remarquer, par exemple, le contenu en ligne qui est illégal et qui doit être supprimé ».

Cela incluait l’incitation à la haine fondée sur des critères tels que le niveau d’éducation ou la catégorie sociale, la glorification des régimes totalitaires ou la négation de leurs crimes, la diffusion d’informations fausses ou trompeuses sur la santé publique, les élections, les crises sociales, les crises économiques/bancaires pour provoquer la panique ou influencer l’opinion publique.

David a souligné : « La technologie en elle-même, y compris les médias sociaux, n’est ni une bonne ni une mauvaise chose. »

Il a déclaré que la liberté d’expression était importante « mais dans une démocratie, il y a des limites ».

« De même, nous devons avoir ces limites sur les réseaux sociaux, comme nous l’avons dans le monde physique, rien de plus.

« Nous n’avons pas besoin de bureaucratiser et de devenir obsédés par le contrôle, mais nous ne pouvons pas non plus accepter que tout soit permis. À ce stade, nous ne sommes plus une société, nous ne sommes plus une démocratie, nous sommes un État et nous sommes plutôt un groupe anarchique », a-t-il déclaré.

Le 11 mars, le gouvernement, TikTok et Facebook ont ​​annoncé un « partenariat » pour lutter contre la désinformation, en se concentrant sur la suppression rapide des contenus.

Le 27 mars, les responsables effectueront un test simulant des scénarios électoraux potentiels pour évaluer les capacités d’intervention rapide.

Bien que ces mesures soient censées servir à protéger les citoyens et à maintenir un environnement en ligne sûr et transparent, les critiques ont souligné qu’il existait un risque majeur d’abus et de censure.

La Roumanie s’est efforcée de lutter plus énergiquement contre les contenus dits illégaux, les discours de haine et les informations manipulées après avoir approuvé fin février un projet de loi introduisant des réglementations plus strictes sur les plateformes de médias sociaux et les fournisseurs de contenu en ligne.

Bien qu’alignée sur la loi sur les services numériques (DSA) de l’Union européenne, la législation roumaine est allée plus loin dans ses restrictions.

Les principales caractéristiques du projet de loi étaient la suppression rapide du contenu illicite, le matériel considéré comme incitant à la violence, aux discours de haine ou à la désinformation sur des sujets d’intérêt national majeurs devant être supprimé dans les 15 minutes suivant sa publication, ce qui n’était pas exigé par la DSA.

Durant cette période, les plateformes devraient être amenées à utiliser des algorithmes, potentiellement basés sur l’IA, pour analyser et classer le contenu.

Pour les comptes enregistrés ou actifs en Roumanie, les plateformes doivent ajuster leurs algorithmes pour garantir que le « contenu potentiellement nuisible », défini au sens large comme incluant l’incitation à la haine, la désinformation dangereuse ou la manipulation, n’atteigne pas plus de 150 utilisateurs.

Les plateformes seraient interdites de promouvoir de tels « contenus potentiellement nuisibles » liés à des comptes roumains.

Les institutions, dont l’Autorité électorale permanente, le Conseil national de l’audiovisuel, le Service roumain de renseignements et même le ministère de la Défense, auront le pouvoir de demander directement la suppression de publications ou le blocage de l’accès des utilisateurs à celles-ci.

Si les institutions de l’État validaient plus de 30 % des signalements d’utilisateurs de contenus illégaux ou préjudiciables sur une plateforme dans les 30 jours suivant la promulgation de la loi, le fournisseur s’exposerait à de lourdes amendes.

De plus, les fournisseurs d’accès à Internet (FAI) qui ne bloquent pas les sites désignés comme « nuisibles » pourraient être passibles d’amendes allant de 10 000 à 50 000 lei (environ 2 000 à 10 000 €).

Le projet de loi permettait aux autorités, notamment au Conseil national de l’audiovisuel (CNA) et à l’Autorité nationale de gestion et de régulation des communications (ANCOM), d’ordonner la suppression de contenu ou le blocage de sites sans contrôle judiciaire indépendant préalable dans certains cas.

Cela signifie qu’une fois le contenu bloqué, les utilisateurs concernés doivent intenter une action en justice pour restaurer leurs publications – une longue procédure judiciaire qui se poursuivrait probablement jusqu’à ce que la pertinence et l’impact du message d’origine aient effectivement disparu.

Les critiques ont averti qu’avec un si large éventail d’institutions étatiques pouvant demander la suppression directe de postes, il y avait de fortes inquiétudes quant à une possible utilisation politique, voire à des abus, notamment en ce qui concerne les élections.

Ils ont également noté l’absence de critères clairs, transparents et bien définis sur ce qui constitue une critique, une ironie ou des opinions contraires.

La loi a été rédigée et proposée fin février, et a rapidement progressé dans le processus législatif roumain.

Cette campagne a gagné du terrain malgré les inquiétudes concernant une ingérence étrangère dans l’élection présidentielle annulée de 2024. Cela était particulièrement lié au succès du candidat populiste Călin Georgescu sur TikTok, que les services de renseignement roumains ont attribué à une possible influence russe.

Les avocats de CMS Law Now, un cabinet d’avocats international de premier plan avec 79 bureaux dans plus de 40 pays et plus de 5 000 avocats dans le monde, ont averti qu’il serait difficile pour les fournisseurs tenus de mettre en œuvre des mécanismes pour détecter et catégoriser les contenus potentiellement dangereux et supprimer les contenus illégaux identifiés dans les 15 minutes suivant leur publication.

Ils ont déclaré que si d’autres pays n’adoptaient pas de règles similaires, les fournisseurs devraient soit appliquer ces mesures plus strictes de manière universelle, soit développer des mécanismes distincts pour identifier et catégoriser le contenu publié par et pour les utilisateurs en Roumanie.

« Bien que nous comprenions la nécessité de mécanismes efficaces pour lutter contre les contenus illégaux, nous pensons que l’urgence imposée par cette proposition, le fort recours à l’IA et la définition large de « contenu potentiellement nuisible » pourraient conduire à des erreurs et potentiellement porter atteinte à la liberté d’expression », ont-ils conclu.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Les hacktivistes protestent contre Musk et Trump en fermant X pour des dizaines de milliers de personnes

Le groupe hacktiviste autoproclamé Dark Storm a revendiqué lundi la responsabilité d’une panne en cours affectant X pour protester contre le propriétaire de la plateforme de médias sociaux Elon Musk et le président américain Donald Trump.

5–7 minutes

En utilisant le hashtag #takedowntwitter (l’ancien nom du site avant que Musk n’achète la plateforme en octobre 2022), un utilisateur de Bluesky connu sous le nom de « Puck Arks » a publié qu’un groupe de hackers pro-palestinien connu sous le nom de Dark Storm Team a revendiqué les interruptions de lundi matin.

« #DarkStorm a confirmé que l’attaque DDoS contre Twitter se poursuivra tout au long de la journée en guise de protestation contre Musk et Trump », ont-ils publié, précisant que les attaques devraient durer au moins quatre heures supplémentaires.

La plateforme de Musk connaît des pannes intermittentes dans le monde entier depuis environ 6 heures du matin, heure de l’Est, affectant environ 40 000 utilisateurs aux États-Unis à son pic de 10 heures du matin et environ 10 800 utilisateurs X au Royaume-Uni.

« Face au fascisme flagrant et au manque d’humanité d’Elon Musk et de Donald Trump, nous, en tant qu’armée numérique au service du peuple, poursuivrons nos manifestations pacifiques contre X, anciennement Twitter, grâce à des attaques DDoS. Merci pour votre soutien », a déclaré Puck Arks dans son troisième message concernant les perturbations.

Musk a commenté la panne en déclarant que sa plateforme était en train de retracer l’origine des attaques, tout en recevant, comme d’habitude, le soutien et le vitriol des utilisateurs des deux côtés de l’allée.

« Il y a eu (et il y a toujours) une cyberattaque massive contre X. Nous sommes attaqués tous les jours, mais cela a nécessité des moyens considérables. Soit un groupe important et coordonné, soit un pays est impliqué », a déclaré Musk.

Les attaques présumées par déni de service distribué (DDoS), qui inondent les serveurs d’une cible avec des milliers de demandes de trafic (souvent à l’aide de robots automatisés), surviennent après un week-end de manifestations en direct dans les concessionnaires Tesla à travers les États-Unis dénonçant Musk et ses dernières politiques DOGE .

Des milliers de manifestants (comme la femme photographiée ci-dessus) ont été vus prendre d’assaut des concessions, taguer des biens et, dans certains cas, incendier des bornes de recharge Tesla, lancer des cocktails Molotov et tirer des coups de feu. Ces manifestations parfois violentes ont conduit la police de villes comme Chicago et Boston, ainsi que de l’Oregon, à barricader les concessions et à arrêter les agitateurs afin de protéger les installations et leurs employés.

Ce week-end, sur ses réseaux sociaux, Elon Musk a accusé les milliardaires George Soros et Reid Hoffman, fondateur de LinkedIn, d’avoir financé les manifestations contre le « Tesla Takedown » par le biais de leur organisation ActBlue, citant une enquête anonyme. Reid a nié toute implication, qualifiant les accusations contre X de « nouvelles fausses déclarations d’Elon à mon sujet ».

« Les tactiques d’attaque DDoS ont considérablement évolué »

David Mound, testeur de pénétration senior chez SecurityScorecard, affirme que les tactiques d’attaque DDoS ont considérablement évolué au cours des dernières années, les adversaires « exploitant des techniques de plus en plus sophistiquées pour contourner les défenses traditionnelles ».

Le site de surveillance Internet Downdetector.com a montré que le nombre d’utilisateurs X touchés par la panne est tombé à moins d’un millier juste avant 11 heures. Cependant, il semble que les perturbations continues aient de nouveau augmenté lundi après-midi, affectant environ 35 000 utilisateurs juste après 13 heures.

Environ 60 % des utilisateurs de X aux États-Unis ont signalé des problèmes avec l’application, 31 % ont signalé des problèmes avec le site Web de X et 11 % ont signalé des problèmes de connexion au serveur, a déclaré Downdetector.

Mound a expliqué que les attaques DDoS traditionnelles sont passées de « pures attaques volumétriques à des inondations au niveau de la couche applicative (L7), au trafic adaptatif piloté par des robots et aux abus ciblés des API », ce qui peut rendre l’atténuation beaucoup plus difficile.

« Les attaquants distribuent désormais le trafic sur des sous-réseaux entiers (tapis de bombardement) et exploitent des vecteurs à forte amplification comme Memcached, DNS et la réflexion TCP pour submerger les réseaux », a déclaré Mound, ajoutant que « les botnets à grande échelle, souvent alimentés par des variantes de logiciels malveillants IoT, permettent des attaques à l’échelle du Tbps, certaines dépassant 10 Tbps, mettant en danger même les organisations bien protégées. »

Qui est Dark Storm ?

Selon un rapport de renseignement sur les cyber-risques de SecurityScorecard datant de 2023, Dark Storm a revendiqué des attaques « sur des cibles à l’intérieur et à l’extérieur d’Israël » depuis la guerre à Gaza, en se concentrant sur la destruction des infrastructures israéliennes et en se vantant de ses attaques sur une chaîne Telegram qu’elle a créée en août 2023.

Le groupe persanophone a non seulement ciblé le gouvernement israélien, les municipalités locales et les industries sensibles, mais est également connu pour avoir revendiqué des attaques par déni de service distribué contre l’aéroport John F. Kennedy de New York et l’aéroport de Los Angeles (LAX), ainsi que Snapchat.

Dark Storm semble suivre un modèle de jeu hacktiviste similaire à celui du gang Killnet, qui a passé la majeure partie de l’année 2023 à mener des attaques DDoS contre des victimes qui soutenaient l’Ukraine jusqu’à ce qu’il décide de commercialiser ses opérations en faveur d’un modèle de hackers DDoS à louer.

Les chercheurs de SecurityScorecard affirment que Dark Storm présente « des motivations commerciales en plus de motivations politiques » et, comme Killnet, a commencé à se présenter comme un « cybercrime en tant que service », avec un menu de services de piratage.

« Pendant une grande partie de son histoire, il [Dark Storm] a ciblé les États membres de l’OTAN et d’autres qui ont déclaré leur soutien à l’Ukraine », suggérant des intérêts géopolitiques russes, ont déclaré les chercheurs.

Le lien direct entre l’utilisateur de Bluesky Puck Arks et l’équipe Dark Storm n’est pas clair, à l’exception de leur soutien mutuel aux activités des hacktivistes et d’autres groupes partageant les mêmes idées, tels qu’Anonymous, et de leur aversion pour les politiques américaines.

Au-delà de l’évolution des techniques, l’étude montre que les motivations des attaques DDoS évoluent, a déclaré Mound. « L’hacktivisme a refait surface, avec des groupes comme Killnet et Anonymous Sudan lançant des attaques à motivation politique contre des gouvernements, des institutions financières et des fournisseurs d’infrastructures », a-t-il ajouté.

Mound a également noté que les attaques DDoS avec rançon, ou campagnes RDDoS, sont également devenues plus fréquentes chez les acteurs malveillants cherchant à tirer profit de leurs activités criminelles. Lors d’attaques RDDoS, les hacktivistes exigent une rançon et menacent la victime d’une interruption prolongée de service si elle ne paie pas.

« Les acteurs étatiques ont également commencé à utiliser les attaques DDoS dans le cadre de campagnes plus vastes de cyberinfluence et de perturbation, notamment dans les conflits géopolitiques », a déclaré M. Mound. « Les attaquants perfectionnant continuellement leurs techniques, une stratégie de sécurité proactive et adaptative est essentielle pour résister aux menaces DDoS modernes », a-t-il ajouté.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Elon Musk affirme que les adresses IP liées à une « cyberattaque massive » contre X proviennent d’Ukraine

Elon Musk a affirmé que les adresses IP connectées à une « cyberattaque massive » sur X, qui a provoqué des pannes importantes tout au long de la journée de lundi, provenaient d’Ukraine.

2–3 minutes

Dans une interview avec le présentateur de Fox Business Network, Larry Kudlow, Elon Musk a admis qu’ils n’étaient toujours « pas sûrs exactement de ce qui s’est passé ».

« Il y a eu une cyberattaque sur X aujourd’hui, qui a entraîné la fermeture de l’entreprise et qui pourrait être d’origine étrangère », a déclaré Kudlow. « C’est une grande nouvelle, vous voulez nous en parler un instant ? »

« Nous ne savons pas exactement ce qui s’est passé », a répondu Elon Musk. « Mais il y a eu une cyberattaque massive pour tenter de faire tomber le système X, avec des adresses IP provenant de la région ukrainienne. »

Lucas Nolan, de Breitbart News, a rapporté que même si « un groupe connu sous le nom de « Dark Storm Team » a revendiqué la responsabilité des attaques » sur la plateforme de médias sociaux, cela « n’a pas été vérifié de manière indépendante ».

Des spéculations ont commencé à circuler sur la cause des pannes, certains utilisateurs suggérant que X pourrait être la cible d’une série d’attaques par déni de service distribué (DDoS). Ces attaques consistent à inonder un site Web ou un service avec une quantité écrasante de trafic, le rendant inaccessible aux utilisateurs légitimes. Un groupe connu sous le nom de « Dark Storm Team » a revendiqué la responsabilité des attaques sur les réseaux sociaux, mais ces affirmations n’ont pas été vérifiées de manière indépendante.

Vers 6h00 du matin, la première panne s’est produite sur X, avec environ 20 608 pannes signalées, selon Downdetector. À 6h17, 720 pannes ont été signalées sur X, et les pannes sur la plateforme de médias sociaux semblaient avoir cessé jusqu’à environ 9h30

Selon Downdetector, à 10 h 02, il y avait environ 41 143 signalements de pannes sur X. À 10 h 32, ce nombre est tombé à environ 1 361 signalements, et à 11 h 02, il y avait environ 4 670 signalements de pannes.

Les rapports de pannes sur la plateforme de médias sociaux ont ensuite augmenté à nouveau, avec environ 36 064 pannes signalées vers 13h02. Vers 13h32, il y a eu environ 3 455 rapports de pannes.

La plateforme de médias sociaux semble avoir à nouveau connu une nouvelle panne, avec des rapports atteignant 19 446 vers 14h02 avant de retomber en panne.

Dans un message publié sur X, Elon Musk a révélé qu’« il y a eu (et il y a toujours) une cyberattaque massive contre X », ajoutant que la plateforme de médias sociaux était « attaquée tous les jours. Mais cela a été fait avec beaucoup de ressources », a expliqué Elon Musk. « Soit un grand groupe coordonné, soit un pays est impliqué. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Un juge de la Cour suprême du Brésil ordonne l’arrestation d’un citoyen américain pour avoir tenu des propos politiques

Le mandat d’arrêt contre Magalhaes suscite des inquiétudes au niveau international quant à l’étendue des pouvoirs judiciaires et à la liberté d’expression.

2–3 minutes

Le juge de la Cour suprême du Brésil, Alexandre de Moraes , pro-censure , a émis un mandat d’arrêt contre Flavia Cordeiro Magalhaes, une citoyenne américaine d’origine brésilienne, qui vit en Floride depuis plus de 20 ans.

Selon son représentant légal , ce que Moraes tente de faire ici, c’est d’enfermer un citoyen américain pour des propos politiques tenus sur le sol américain, ce qui signifie que le mandat d’arrêt « soulève en réalité des questions sur la souveraineté des États-Unis ».

Il semble que Moraes ait d’abord ordonné le blocage du compte X de Magalhaes au Brésil en raison d’un message de 2022, qu’elle a publié alors qu’elle se trouvait aux États-Unis.

Selon Magalhaes, elle n’était pas au courant du blocage à l’époque, car elle n’avait pas été prévenue par le tribunal brésilien. Mais comme elle a continué à publier sur X, cela a finalement conduit à une ordonnance de détention provisoire, sous prétexte qu’elle aurait commis un outrage au tribunal.

Cela aurait dû se produire lorsqu’elle s’est rendue au Brésil en décembre 2023 et qu’on lui a dit que son passeport brésilien était « sous restriction » – mais même si elle est entrée et sortie du pays légalement, en utilisant son passeport américain, Moraes a décidé de traiter cela comme l’utilisation d’un « faux document » – et a émis l’ordre de détention provisoire en février de l’année dernière.

Tout cela, malgré les documents de la police fédérale brésilienne affirmant que Magalhaes a voyagé vers et depuis le Brésil légalement.

Son avocat au Brésil, Paulo Faria, a donné un aperçu de la manière dont fonctionne actuellement le système judiciaire de ce pays lorsqu’il a révélé qu’à plusieurs reprises, ses demandes de consultation des dossiers lui avaient été refusées, tandis que sa tentative de faire valoir que son client n’avait reçu aucune décision de justice « n’avait eu aucun effet ».

« La défense continue de faire pression pour la révision de l’arrestation et pour la transparence du processus, tandis que l’opposition au gouvernement brésilien dénonce la censure et la persécution des voix dissidentes », a déclaré Faria.

Il s’agit là d’un autre exemple des actions entreprises par Moraes pour tenter d’étouffer la liberté d’expression au Brésil, mais aussi celle des Brésiliens à l’étranger, semblant croire qu’il peut imposer la juridiction de son tribunal dans d’autres pays et sur les citoyens de ces pays.

En outre, Moraes est impliqué dans un certain nombre de controverses dans lesquelles le système juridique brésilien est utilisé pour cibler et censurer les sociétés de médias sociaux américaines, ce qui conduit le Congrès américain à envisager de placer le juge sur la liste des personnes sanctionnées.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Interdire le smartphone à l’école: tous ne sont pas convaincus

Aux Etats-Unis, le débat sur l’interdiction des téléphones portables à l’école fait rage. Un collège de Virginie a tenté l’expérience.

2–3 minutes

Derrière les murs typiques en brique rouge d’un collège de Virginie, Hayden Jones est interdit d’utiliser son téléphone, initiative qui s’inscrit dans un mouvement mondial qui va du Brésil à la France. Sceptique, l’adolescent de 12 ans résume son verdict par un haussement d’épaules.

Depuis la mise en place en septembre de ce projet pilote à la Mark Twain Middle School d’Alexandria, ville de l’est des Etats-Unis, Hayden Jones doit placer chaque matin son téléphone dans une pochette magnétique verrouillée jusqu’à la fin de la journée.

«Il y a plein de gens qui n’utilisent pas les pochettes. Dans mon cours de maths, il m’arrive de regarder et de voir quelqu’un utiliser un téléphone», raconte l’adolescent.

Selon lui, certains camarades trompent leur monde en plaçant un «faux téléphone» dans la pochette. «Franchement, ça ne change pas grand-chose, les pochettes ajoutent juste une grande responsabilité», estime-t-il, tout en concédant que, avec ce système, «vous ne serez pas distrait par votre téléphone».

«Approfondir la conversation»

L’interdiction du téléphone dans cette école s’inscrit dans une vague de mesures similaires mises en œuvre aux Etats-Unis et plus largement à travers le monde.

Les partisans de ces interdictions estiment qu’elles permettent une meilleure concentration et sociabilisation des élèves. Mais d’autres craignent qu’elles ne les éloignent d’un monde numérique auquel ils doivent inévitablement se préparer.

Le directeur du collège d’Alexandria lui-même reconnaît qu’appliquer la mesure et convaincre les élèves s’est avéré difficile.

«La majorité des enfants qui ont un téléphone n’aiment pas» cette mesure, même si la plupart d’entre eux respectent l’interdiction, explique Matthew Mough. «Mais quand vous approfondissez la conversation avec eux, ils reconnaissent que cela les a aidés à rester concentrés.»

Selon le directeur, l’interdiction des téléphones a permis de réduire les distractions en classe, le cyberharcèlement et même les cas d’élèves qui se réunissent pour sécher les cours. Des recherches suggèrent que l’utilisation excessive des réseaux sociaux augmente la probabilité de maladies mentales telles que l’anxiété et la dépression chez les jeunes. Les associations citent régulièrement ces études pour justifier les interdictions de smartphones.

De la Californie libérale à la Floride conservatrice, environ 76% des écoles publiques ont interdit d’une manière ou d’une autre l’utilisation des téléphones, selon les derniers chiffres officiels publiés en 2024.

«Faire l’autruche»

Ces restrictions sont largement soutenues par les enseignants, l’Association nationale de l’éducation affirmant que 90% de ses membres soutiennent les politiques d’interdiction des téléphones pendant les cours.

«Le plus gros problème est que les enfants ne sont pas à un stade de développement leur permettant de gérer le type de technologie dont nous parlons», observe Sabine Polak, cofondatrice du Mouvement des écoles sans téléphone.

Mais d’autres, comme Keri Rodrigues, présidente d’une association de parents, estiment que «la réponse n’est pas d’interdire et de faire l’autruche, ce n’est pas efficace, et franchement, c’est bête», s’agace-t-elle. «Ce que nous devons faire, c’est donner à nos enfants des informations, des compétences et des stratégies dont ils auront besoin pour naviguer dans un avenir numérique».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les chatbots comme censeurs : comment l’UE envisage l’IA pour contrôler la parole

Les efforts visant à réglementer les chatbots IA s’intensifient alors que les décideurs politiques font pression pour une censure de contenu plus stricte.

2–3 minutes

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

Bien que ne faisant pas officiellement partie de l’UE, le groupe est impliqué dans un certain nombre de « projets anti-désinformation » financés par le bloc et fait des recommandations politiques à ses institutions et à ses pays membres.

L’une de ces « recommandations en cours d’élaboration » semble désormais vouloir renforcer les capacités des chatbots en tant qu’outils de censure, tandis que la loi européenne sur la censure, le Digital Services Act (DSA), est mentionnée comme le cadre juridique qui permettrait cela.

Un rapport de DisinfoLab, « Conditions de (dés)service : comparaison des politiques de désinformation dans les chatbots d’IA génératrices de texte », positionne l’objectif de la recherche comme étant l’examen des « politiques de désinformation » utilisées dans 11 des principaux chatbots afin de déterminer si elles en font suffisamment pour éviter d’être « mal utilisées ou exploitées par des acteurs malveillants ».

L’une des conclusions est qu’à l’heure actuelle, les conditions de service s’appliquant aux chatbots sélectionnés par EU DisinfoLab ne prévoient pas explicitement d’appliquer la censure, et prédit que les moyens « actuellement inadéquats » utilisés par les chatbots pour « modérer la désinformation » ne feront qu’empirer – si, bien entendu, ils ne sont pas réglementés.

C’est là qu’intervient la DSA, dont le rapport affirme que les dispositions générales de la loi obligent les plateformes en ligne à supprimer « rapidement les contenus illégaux dès qu’elles ont connaissance de leur illégalité » – une responsabilité que les plateformes contourneraient désormais en évitant l’inclusion de la « vérification des faits ».

L’Europe n’est pas le seul pays à envisager la possibilité d’utiliser les chatbots comme fantassins dans la « guerre contre la désinformation ». L’Assemblée de l’État de New York cherche désormais à « responsabiliser les chatbots ».

Une proposition (projet de loi 025-A222) a été présentée qui réglementerait l’espace en rendant les entreprises derrière les chatbots responsables de ne pas fournir « d’informations exactes ».

Le projet de loi, présenté par un membre démocrate de l’Assemblée de l’État, vise également à ajouter des informations définies comme « matériellement trompeuses, incorrectes, contradictoires ou nuisibles » à la liste des éléments pour lesquels les entreprises ne seraient pas autorisées à décliner toute responsabilité.

Et ces catégories, déjà larges, sont rendues encore plus ouvertes à l’interprétation puisque le texte proposé stipule que les opérateurs de chatbots seraient considérés comme responsables si ces types d’informations entraînent une perte financière – mais aussi « d’autres préjudices démontrables ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Un homme tué pour avoir exclu un membre d’un groupe WhatsApp

Un Pakistanais a tué l’administrateur d’un groupe WhatsApp après une dispute. Le motif ? Avoir été exclu du groupe.

1–2 minutes

Un Pakistanais a tué l’administrateur d’un groupe WhatsApp de voisins parce qu’il l’avait exclu, rapporte samedi la police de Peshawar, capitale du Khyber-Pakhtunkhwa, région connue pour ses «codes d’honneur» tribaux et ses nombreuses armes en circulation.

Dans le procès-verbal consulté par l’AFP, le frère de la victime – identifiée comme Mouchtaq Ahmed – assure que ce dernier avait exclu de la boucle de messages le dénommé Achfaq – l’auteur présumé des faits – après une dispute.

Les deux hommes avaient accepté une réunion de réconciliation, mais quand ils se sont présentés, entourés de proches dont le frère de Mouchtaq Ahmed, Achfaq a tiré «en réponse à son exclusion du groupe».

Arrêté, il est désormais inculpé pour meurtre, a ajouté l’officier de police Nour Wali, confirmant les détails du procès-verbal à l’AFP.

Au Khyber-Pakhtunkhwa, querelles foncières, rivalités commerciales, disputes au nom de «l’honneur» d’un homme ou d’une femme sont souvent réglées à coups d’armes à feu, voire à l’arme lourde, sans que l’Etat fédéral comme le gouvernement provincial soient capables d’enrayer la violence.

Dans cette région, le long de la très poreuse frontière avec l’Afghanistan, les arsenaux sont légion et les institutions publiques se sont longtemps effacées devant les conseils tribaux ou le code d’honneur pachtoune.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Amazon étend la numérisation biométrique de la paume aux soins de santé grâce à un partenariat avec NYU Langone

Le système de paiement biométrique d’Amazon fait une entrée audacieuse dans le secteur de la santé, soulevant de nouvelles inquiétudes en matière de confidentialité et de sécurité des données.

2–3 minutes

La technologie d’Amazon d’empreintes digitales biométriques et d’imagerie veineuse intégrée à son système de paiement Amazon One s’est pour la première fois étendue au secteur de la santé, avec un déploiement à grande échelle dans le système NYU Langone Health.

L’utilisation d’Amazon One pour l’enregistrement des patients est désormais facultative dans les six premiers hôpitaux et plus de 320 centres de soins ambulatoires gérés par NYU Langone à New York.

L’accord est considéré comme historique, étant donné qu’il s’agit du plus grand déploiement d’Amazon One à ce jour dans un seul secteur – et celui-ci ne fera que s’étendre en 2025 à d’autres installations de NYU Langone.

Le prestataire rapporte un total de plus de 10 millions de visites de patients chaque année.

NYU Langone donne les mêmes raisons que d’autres pour utiliser la technologie d’identification biométrique – comme les aéroports et les grandes salles – et cela se résume à la commodité.

La réduction des temps d’attente (de deux ou trois à moins d’une minute, selon NYU Langone), la rationalisation du processus d’enregistrement et « l’allègement » de la charge de travail administrative du personnel sont quelques-unes des raisons invoquées par le prestataire de soins de santé.

Mais céder des données biométriques hautement sensibles pour ce type d’avantage était et reste controversé, et les critiques disent que c’est un très mauvais compromis.

Les éventuelles violations de la vie privée arrivent en tête de liste des préoccupations, et à partir de là, la possibilité que ces énormes ensembles de données puissent être utilisés pour alimenter une surveillance de masse à un moment donné.

Cela n’aide pas que les outils biométriques d’Amazon aient suscité de telles inquiétudes dans le passé et que le géant s’oriente désormais fortement vers le secteur de la santé, parmi tous les secteurs.

Pour remédier à cela, NYU Langone souligne qu’Amazon n’aura « accès » qu’aux empreintes palmaires de ses patients, les données de santé et personnelles n’étant pas incluses. Étant donné l’objectif de l’utilisation d’Amazon One, les assurances du fournisseur semblent répondre à une question que personne n’a posée.

Cependant, de nombreux patients et observateurs se demandent probablement si les données biométriques récoltées de cette manière seront cryptées, ce qui sera le cas selon NYU Langone. Les patients pourront également demander la suppression de leurs données et auront la possibilité de se retirer une fois qu’ils auront accepté.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Meta va traquer les fausses publicités de célébrités

Le groupe de Zuckerberg va proposer un outil de reconnaissance faciale permettant de détecter les images trafiquées.

2–3 minutes

Le géant américain Meta (Facebook, Instagram) lance en Europe, au Royaume-Uni et en Corée du Sud un outil de reconnaissance faciale, permettant de débusquer les fausses publicités détournant l’image de personnalités, mais aussi d’aider les utilisateurs à récupérer leur compte, a-t-il annoncé mercredi.

«Dans les prochaines semaines, les personnalités publiques du Royaume-Uni et de l’Union européenne vont recevoir des notifications dans leurs applications les informant qu’elles peuvent désormais bénéficier de cette protection», a indiqué David Agranovich, directeur des équipes de cybersécurité de Meta, lors d’un point presse avec des journalistes.

Cet outil était déjà en phase de test dans d’autres pays, dans lesquels Meta annonce étendre cette fonctionnalité «à un plus grand nombre de personnalités».

De nombreuses fausses publicités, utilisant de manière frauduleuse des images de célébrités, pullulent sur les réseaux sociaux. Elles incitent notamment les internautes à partager des informations personnelles ou à envoyer de l’argent. Si une personnalité publique active la nouvelle option proposée par Meta, elle autorisera cet outil à utiliser ses photos de profil pour les comparer aux visages apparaissant dans des publicités soupçonnées d’être frauduleuses. Si la fraude est avérée, la publicité sera automatiquement bloquée.

Le géant américain affirme que cette technologie devrait permettre d’accélérer le processus de détection des arnaques, alors que des millions de publicités sont diffusées chaque jour sur les plateformes du groupe. «Nous pensons que cet outil nous aidera à identifier les images de personnalités publiques utilisées à mauvais escient, même si elles ont été créées par de l’IA générative», affirme David Agranovich.

Des modèles d’IA générative comme Grok, développé par la société xAI du milliardaire américain Elon Musk, permettent en effet de créer des images et vidéos très réalistes de personnalités.

Pour récupérer son compte

Meta a également annoncé qu’il ajouterait la reconnaissance faciale à ses outils de récupération de compte pour tous les utilisateurs. Il suffira, pour ceux qui le souhaitent, de se filmer dans une courte vidéo pour faire vérifier son identité en cas de blocage de son compte.

Le groupe américain précise qu’il n’utilisera pas les données de visage «à d’autres fins que pour cette comparaison ponctuelle dans nos outils» et les supprimera immédiatement après utilisation. En outre, cette technologie est mise en place conformément à la législation européenne sur la protection des données personnelles (RGPD), a-t-il assuré.

En 2021, le propriétaire de Facebook avait annoncé mettre un terme à l’utilisation de la reconnaissance faciale sur ses plateformes, à cause de préoccupations autour de cet usage, avant d’annoncer en octobre 2024 qu’il aurait à nouveau recours à cette technologie pour détecter les publicités trompeuses.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les efforts visant à réglementer les chatbots IA s’intensifient alors que les décideurs politiques font pression pour une censure de contenu plus stricte.

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

2–3 minutes

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

Bien que ne faisant pas officiellement partie de l’UE, le groupe est impliqué dans un certain nombre de « projets anti-désinformation » financés par le bloc et fait des recommandations politiques à ses institutions et à ses pays membres.

L’une de ces « recommandations en cours d’élaboration » semble désormais vouloir renforcer les capacités des chatbots en tant qu’outils de censure, tandis que la loi européenne sur la censure, le Digital Services Act (DSA), est mentionnée comme le cadre juridique qui permettrait cela.

Un rapport de DisinfoLab, « Conditions de (dés)service : comparaison des politiques de désinformation dans les chatbots d’IA génératrices de texte », positionne l’objectif de la recherche comme étant l’examen des « politiques de désinformation » utilisées dans 11 des principaux chatbots afin de déterminer si elles en font suffisamment pour éviter d’être « mal utilisées ou exploitées par des acteurs malveillants ».

L’une des conclusions est qu’à l’heure actuelle, les conditions de service s’appliquant aux chatbots sélectionnés par EU DisinfoLab ne prévoient pas explicitement d’appliquer la censure, et prédit que les moyens « actuellement inadéquats » utilisés par les chatbots pour « modérer la désinformation » ne feront qu’empirer – si, bien entendu, ils ne sont pas réglementés.

C’est là qu’intervient la DSA, dont le rapport affirme que les dispositions générales de la loi obligent les plateformes en ligne à supprimer « rapidement les contenus illégaux dès qu’elles ont connaissance de leur illégalité » – une responsabilité que les plateformes contourneraient désormais en évitant l’inclusion de la « vérification des faits ».

L’Europe n’est pas le seul pays à envisager la possibilité d’utiliser les chatbots comme fantassins dans la « guerre contre la désinformation ». L’Assemblée de l’État de New York cherche désormais à « responsabiliser les chatbots ».

Une proposition (projet de loi 025-A222) a été présentée qui réglementerait l’espace en rendant les entreprises derrière les chatbots responsables de ne pas fournir « d’informations exactes ».

Le projet de loi, présenté par un membre démocrate de l’Assemblée de l’État, vise également à ajouter des informations définies comme « matériellement trompeuses, incorrectes, contradictoires ou nuisibles » à la liste des éléments pour lesquels les entreprises ne seraient pas autorisées à décliner toute responsabilité.

Et ces catégories, déjà larges, sont rendues encore plus ouvertes à l’interprétation puisque le texte proposé stipule que les opérateurs de chatbots seraient considérés comme responsables si ces types d’informations entraînent une perte financière – mais aussi « d’autres préjudices démontrables ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

La répression du chiffrement en France pourrait compromettre la sécurité des messages pour tous

Les portes dérobées de chiffrement obligatoires mettraient des milliards de personnes en danger, compromettant à la fois la confidentialité et la cybersécurité.

2–3 minutes

La France tente de faire passer une nouvelle loi sur la surveillance exigeant l’inclusion de portes dérobées de chiffrement secrètes par les fournisseurs, pour servir les agences de renseignement et la police.

Les critiques affirment que cette attaque contre les communications sécurisées est la pire du genre dans l’Union européenne (UE) et exhortent les citoyens à faire pression sur les législateurs pour empêcher l’adoption de la loi dite « Snarcotrafic  » , qui a été adoptée par le Sénat du pays et se trouve désormais à l’Assemblée nationale.

Parmi ceux qui tirent la sonnette d’alarme au sujet de cette loi figure le célèbre service de messagerie électronique cryptée de bout en bout Tuta, qui réitère l’argument fondamental contre l’intégration de portes dérobées dans toute application cryptée – quelque chose que les législateurs français doivent désormais entendre : une fois brisé pour l’un, le cryptage est brisé pour tous.

« Une porte dérobée réservée aux gentils n’est pas possible », peut-on lire sur le blog de Tuta .

Il ajoute que l’idée de donner aux forces de l’ordre la possibilité d’activer à distance des caméras et des microphones, d’étendre l’autorisation des « boîtes noires » et de faciliter davantage la censure en ligne (soi-disant uniquement liée à l’utilisation et à la vente de drogues) pourrait être présentée par ceux qui sont à l’origine du projet de loi comme nécessaire pour lutter contre le crime organisé – mais que, dans le même temps, cela va à l’encontre d’un certain nombre de lois existantes.

Étant donné que l’affaiblissement du cryptage rend tout le monde vulnérable, les règles de protection des données de l’UE (RGPD) seraient compromises et, comme Tuta est basé en Allemagne, l’article fait également référence aux lois sur la sécurité informatique et les télécommunications (TKG) de ce pays.

En imposant les portes dérobées, le gouvernement français « compromettrait la sécurité de tous les utilisateurs, citoyens comme entreprises », insiste Tuta.

La loi vise à permettre aux messageries cryptées, dont WhatsApp et Signal, d’accéder aux communications cryptées entre les personnes soupçonnées d’un crime lié au trafic de drogue – afin que ces messages puissent ensuite être transmis aux forces de l’ordre.

Les applications auraient 72 heures pour se conformer ou payer 1,5 million d’euros (particuliers) ou jusqu’à 2 % du chiffre d’affaires annuel mondial (entreprises).

Le blog de Tuta note que ceux qui sont à l’origine de l’amendement « Narcotrafic » qui cherche à permettre tout cela semblent essayer de s’appuyer sur des exemples antérieurs de résolution de crimes en s’introduisant dans des applications cryptées – cependant, Encrochat et AN0M ont été « construits par des criminels pour des criminels », remarque l’article.

Et c’est « tout autre chose que de briser le cryptage des applications de messagerie utilisées par des milliards de personnes, comme WhatsApp, Signal et Tuta Mail », peut-on lire dans le message. « Les dommages collatéraux de cette dernière seraient horribles. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire