L’administration du président américain Donald Trump a exempté les smartphones, les ordinateurs et certains autres appareils électroniques des tarifs « réciproques », y compris les taxes de 125 % imposées sur les importations chinoises.
3–5 minutes
Dans un avis, les douanes et la patrouille frontalière américaines ont déclaré que les marchandises seraient exclues du tarif mondial de 10 % de Trump sur la plupart des pays et de la taxe d’importation chinoise beaucoup plus importante.
Il s’agit du premier répit significatif de toute sorte dans les tarifs douaniers imposés par Trump à la Chine, un analyste commercial le décrivant comme un « scénario qui change la donne ».
Tard samedi, alors qu’il se rendait à Miami, Trump a déclaré qu’il donnerait plus de détails sur les exemptions au début de la semaine prochaine.
« Nous serons très précis », a-t-il déclaré aux journalistes à bord d’Air Force One. « Mais nous encaissons beaucoup d’argent. En tant que pays, nous encaissons beaucoup d’argent. »
Cette décision fait suite aux inquiétudes des entreprises technologiques américaines selon lesquelles le prix des gadgets pourrait monter en flèche, car beaucoup d’entre eux sont fabriqués en Chine.
Les exemptions – rétroactives au 5 avril – incluent également d’autres appareils et composants électroniques, notamment les semi-conducteurs, les cellules solaires et les cartes mémoire.
« C’est le scénario idéal pour les investisseurs technologiques », a déclaré Dan Ives, directeur mondial de la recherche technologique chez Wedbush Securities, sur X. « L’exclusion des smartphones et des puces électroniques est un scénario qui change la donne face aux droits de douane chinois. »
Les grandes entreprises technologiques telles qu’Apple, Nvidia, Microsoft et l’ensemble de l’industrie technologique peuvent pousser un énorme soupir de soulagement ce week-end, a-t-il ajouté.
La Maison Blanche a indiqué que ces exemptions avaient été accordées pour garantir que les entreprises disposent de plus de temps pour déplacer leur production aux États-Unis.
« Le président Trump a clairement indiqué que l’Amérique ne pouvait pas compter sur la Chine pour fabriquer des technologies critiques telles que les semi-conducteurs, les puces, les smartphones et les ordinateurs portables », a déclaré la porte-parole de la Maison Blanche, Karoline Leavitt, dans un communiqué.
« Sous la direction du président, ces entreprises s’efforcent de rapatrier leur production aux États-Unis dès que possible. »
Trump, qui passe le week-end dans sa maison de Floride, a déclaré vendredi aux journalistes qu’il était à l’aise avec les tarifs élevés imposés à la Chine.
« Et je pense que quelque chose de positif va en sortir », a-t-il déclaré, vantant sa relation avec le président chinois Xi Jinping.
Ces produits électroniques sont toujours soumis au tarif de 20 % imposé à la Chine en raison du fentanyl, a déclaré Stephen Miller, chef adjoint du cabinet de la Maison Blanche chargé des politiques, sur X.
Certaines estimations suggèrent que les prix de l’iPhone aux États-Unis pourraient avoir triplé si les coûts étaient répercutés sur les consommateurs.
Les États-Unis sont un marché majeur pour les iPhones, tandis qu’Apple a représenté plus de la moitié de ses ventes de smartphones l’année dernière, selon Counterpoint Research.
Selon cette étude, jusqu’à 80 % des iPhones d’Apple destinés à la vente aux États-Unis sont fabriqués en Chine, les 20 % restants étant fabriqués en Inde.
À l’instar de son homologue Samsung, le géant des smartphones, Apple a tenté ces dernières années de diversifier ses chaînes d’approvisionnement pour éviter une dépendance excessive à la Chine.
L’Inde et le Vietnam sont devenus des précurseurs en matière de pôles de production supplémentaires.
Alors que les tarifs douaniers entraient en vigueur, Apple aurait cherché à accélérer et à augmenter sa production d’appareils fabriqués en Inde ces derniers jours.
Trump avait prévu d’imposer une série de droits de douane élevés à des pays du monde entier, qui entreraient en vigueur cette semaine.
Mais mercredi, il a annoncé qu’il mettrait en œuvre une pause de 90 jours pour les pays touchés par des droits de douane américains plus élevés – à l’exception de la Chine, dont il a augmenté les droits de douane à 145 %.
Trump a déclaré que l’augmentation des tarifs douaniers pour la Chine était due à la volonté du pays de riposter avec sa propre taxe de 84 % sur les produits américains.
Dans un changement radical de politique, Trump a déclaré que tous les pays qui n’avaient pas riposté aux tarifs douaniers américains bénéficieraient d’un sursis – et ne seraient confrontés qu’à un tarif général de 10 % – jusqu’en juillet.
La Maison Blanche a ensuite déclaré que cette décision était une tactique de négociation visant à obtenir des conditions commerciales plus favorables de la part d’autres pays.
Trump a déclaré que ses taxes à l’importation permettraient de remédier aux injustices du système commercial mondial et de ramener des emplois et des usines aux États-Unis.
Enfoui dans un jargon bureaucratique, le plan transforme discrètement les données sur les traumatismes et la santé en prévisions.
2–3 minutes
Il a été révélé que le gouvernement britannique est impliqué dans le développement d’un autre projet dystopique, celui-ci étant comparé aux concepts explorés dans Minority Report, car il implique une analyse basée sur des algorithmes pour « prédire un meurtre ».
Le « Projet de prédiction des homicides » du ministère de la Justice (MoJ) – comme il était connu lors de son lancement, mais désormais désigné par l’expression générique « partage de données pour améliorer l’évaluation des risques » – utilise des informations appartenant à 100 000 à un demi-million de personnes, dans le but de découvrir qui est « le plus à risque » de devenir un meurtrier.
Statewatch a découvert le projet, lancé sous le gouvernement de Rishi Sunak. L’organisation de défense des droits civiques a utilisé les demandes d’accès à l’information et a souligné qu’il s’agissait d’un programme (auparavant) secret, impliquant un accord entre le ministère de la Santé, la police du Grand Manchester (GMP) et la police métropolitaine de Londres.
En réponse au rapport , le gouvernement britannique a déclaré qu’il s’agissait uniquement d’une recherche, « à ce stade ». Statewatch cite l’un des trois documents FOIA qu’il a consultés, dans lequel le ministère de la Justice mentionne une future « opérationnalisation » de ce système.
Les données utilisées sont initialement collectées par la police et proviennent non seulement de criminels ou de suspects, mais aussi de victimes, de témoins, de personnes disparues et de « personnes pour lesquelles il existe des préoccupations en matière de protection ».
Cependant, le ministère de la Justice affirme que seules les données des personnes condamnées sont utilisées, affirmant que les autres catégories ne sont pas incluses.
En ce qui concerne le type d’informations traitées par « l’outil prédictif », outre les noms, les dates de naissance, les sexes, les ethnies et l’identifiant unique de l’ordinateur national de la police, il existe également des « marqueurs de santé ».
Ces informations couvrent les antécédents de santé mentale d’une personne et des détails tels que la dépendance, l’automutilation, le suicide, la vulnérabilité et le handicap.
L’association Big Brother Watch a réagi à la nouvelle de ce projet en déclarant que le fait que le gouvernement se donne la possibilité d’utiliser des machines pour prédire qui pourrait devenir un tueur est « alarmant ».
La directrice par intérim Rebecca Vincent a fait remarquer que même lorsqu’un crime a déjà été commis, les algorithmes et l’IA peuvent toujours produire des conclusions erronées basées sur des preuves.
Utiliser la même technologie et les mêmes techniques pour tenter de « prédire les crimes » qui pourraient finalement cibler des personnes innocentes comporte « d’énormes implications en matière de vie privée », a déclaré Vincent, appelant à l’abandon immédiat du projet, le qualifiant de « cauchemar des droits de l’homme rappelant la science-fiction qui n’a pas sa place dans le monde réel, et certainement pas dans une démocratie ».
Le 1er avril, les services SyncUP KIDS et SyncUP DRIVE de T-Mobile ont mal fonctionné, exposant les emplacements en temps réel, les noms et les photos des enfants et les données des véhicules à des utilisateurs aléatoires, déclenchant une alarme généralisée.
5–7 minutes
Les parents concernés ont signalé avoir vu les données de leurs enfants inconnus au lieu des leurs, sans solution immédiate. Une mère a décrit l’expérience comme « terrifiante », car les alertes de sécurité concernant ses enfants ont été remplacées par des informations provenant d’inconnus.
T-Mobile a d’abord minimisé les inquiétudes des parents, ne reconnaissant le problème qu’après sa couverture médiatique. L’entreprise a ensuite attribué le problème à une « mise à jour technologique planifiée », sans toutefois préciser l’ampleur exacte de la faille.
L’incident met en évidence les vulnérabilités des technologies de suivi, soulevant des inquiétudes quant à l’utilisation abusive des données, aux garanties inadéquates pour les enfants et aux risques non traités dans les appareils basés sur GPS/SIM.
Les critiques réclament des mesures de sécurité plus strictes et une plus grande transparence de la part des fournisseurs de technologie, soulignant la nécessité de protections de la vie privée plus strictes, en particulier pour les données sensibles impliquant des mineurs.
Un incident préoccupant mettant en lumière les vulnérabilités des technologies de suivi numérique a eu lieu le 1er avril : le traceur GPS SyncUP de T-Mobile a connu une panne, exposant la localisation, le nom et la photo en temps réel d’enfants à des utilisateurs aléatoires . Cette panne a également affecté le service SyncUP DRIVE de T-Mobile, qui suit les véhicules, entraînant des atteintes similaires à la vie privée. Cet incident a suscité de vives inquiétudes quant à la sécurité et à la confidentialité des données sensibles, notamment celles des enfants.
Un abus de confiance
Les parents qui utilisent SyncUP KIDS de T-Mobile, un traceur GPS conçu pour les aider à localiser leurs jeunes enfants, se sont retrouvés dans une situation angoissante. Au lieu de voir la localisation de leurs propres enfants, ils ont vu en temps réel la position, le nom et la photo d’enfants choisis au hasard aux États-Unis . Jenna, une mère qui utilise SyncUP pour suivre ses enfants de trois et six ans, a décrit cette expérience comme profondément déstabilisante.
« Je me connectais et je ne voyais pas mes enfants, mais je voyais un enfant en Californie. Je rafraîchissais la page et je voyais un autre enfant », a déclaré Jenna. « J’avais mis en place une zone de 500 mètres autour de son école, donc je recevais une alerte quand il partait. C’était terrifiant de voir les informations des autres enfants et de ne pas pouvoir suivre les miennes. »
Le problème ne concernait pas qu’un seul utilisateur. Plusieurs parents ont rapporté des expériences similaires, chaque connexion affichant des informations différentes sur leurs enfants. Le problème persistait même après déconnexion et reconnexion, ce qui aggravait encore l’anxiété des parents.
« Personne ne m’a prise au sérieux là-bas », a déclaré Jenna. « J’avais l’impression qu’on me laissait de côté, et c’était vraiment inquiétant, car il s’agit de la sécurité de mes enfants. »
Ce n’est que lorsque les médias ont commencé à évoquer le problème que T-Mobile a publié un communiqué. Bennet Ladyman, responsable de la communication de crise de T-Mobile, a reconnu le problème et déclaré qu’il avait été résolu.
« Hier, nous avons entièrement résolu un problème système temporaire sur nos produits SyncUP, résultant d’une mise à jour technologique planifiée », a déclaré Ladyman. « Nous étudions actuellement les impacts potentiels sur un petit nombre de clients et nous contacterons ceux qui en auront besoin. Nous vous prions de nous excuser pour la gêne occasionnée. »
Préoccupations en matière de confidentialité et de sécurité
Cet incident met en lumière les préoccupations plus larges en matière de confidentialité et de sécurité à l’ère numérique, notamment en matière de suivi des enfants. Le dispositif SyncUP KIDS est conçu pour rassurer les parents en leur permettant de surveiller les déplacements de leurs enfants. Cependant, cette faille a révélé une vulnérabilité critique du système, soulevant des questions sur la fiabilité et la sécurité de ces technologies.
Les défenseurs de la vie privée mettent en garde depuis longtemps contre les risques liés à la géolocalisation, notamment lorsqu’elle concerne les enfants. Le risque d’utilisation abusive, que ce soit par des acteurs malveillants ou en raison de défaillances techniques, est une préoccupation majeure. Cet incident rappelle brutalement la nécessité de mesures de sécurité robustes et d’une communication transparente de la part des fournisseurs de technologies.
Impact sur les autres services
Le problème n’a pas seulement affecté le service SyncUP KIDS. SyncUP DRIVE de T-Mobile, qui permet aux utilisateurs de suivre la localisation et les performances de leurs véhicules, a également rencontré un problème similaire. Des utilisateurs ont signalé que l’application affichait la position des véhicules d’autres personnes , plutôt que la leur.
« Il m’affiche les données de toutes sortes de voitures aux États-Unis. Mais il ne m’affiche pas les données de mes véhicules », a écrit un utilisateur de Reddit.
T-Mobile a depuis déclaré que le problème avec SyncUP DRIVE avait été résolu, mais l’étendue du problème et le nombre de clients concernés restent flous. Le communiqué de l’entreprise ne fournit pas de détails précis sur le nombre d’utilisateurs concernés ni sur les mesures prises pour éviter que cela ne se reproduise.
Un appel à une plus grande responsabilité
La panne de T-Mobile SyncUP est un signal d’alarme pour les consommateurs comme pour les fournisseurs de technologies . Si la commodité du suivi en temps réel peut apporter une certaine tranquillité d’esprit, les risques potentiels doivent être gérés avec prudence. Les parents et les utilisateurs de services de suivi sont en droit d’attendre que leurs données, notamment celles concernant la sécurité des enfants, soient traitées avec le plus grand soin et la plus grande sécurité.
La réponse de T-Mobile à cet incident n’a pas atteint la transparence et la responsabilité requises dans de telles situations. Face à l’évolution constante des technologies, il est crucial pour les entreprises de privilégier la confidentialité et la sécurité des utilisateurs, et de communiquer efficacement avec eux en cas de problème.
L’homme lui a fait publier un profil sur Grindr pour rencontrer des hommes, selon les procureurs.
2–3 minutes
Un homme de 29 ans est accusé d’avoir attiré une fille de 13 ans dans le trafic sexuel après l’avoir rencontrée sur une plateforme de médias sociaux populaire, selon les procureurs de Pennsylvanie.
Zachary Lee McCauley, de Louisville, dans le Kentucky, s’est fait passer pour un garçon de 17 ans nommé « Jake » alors qu’il aurait préparé l’adolescent sur Snapchat.
« Ce cas illustre à quel point la portée d’un prédateur sexuel d’enfants qui utilise ces plateformes de médias sociaux est grande. »
La procureure du comté de Bucks, Jennifer Schorn, a déclaré lors d’une conférence de presse que la mère de la fillette avait eu des soupçons lorsqu’elle l’avait surprise en train de prendre des photos et des vidéos sordides d’elle-même dans sa chambre. La mère avait apporté le téléphone, l’iPad et le MacBook de sa fille à la police du canton de Buckingham en octobre.
En février, elle a contacté le bureau du procureur du comté de Bucks après avoir pris connaissance d’un rapport d’abus sexuels sur mineur. Une enquête a conduit la police à McCauley.
« Il a utilisé des tactiques de toilettage pour réduire son inhibition, puis ces tactiques ont évolué vers des menaces de faire du mal à sa mère si elle ne se conformait pas à ses exigences », a déclaré Schorn.
Elle a déclaré que McCauley aurait ordonné à la jeune fille de créer un profil sur l’application de rencontre Grindr afin que des hommes puissent la rencontrer et payer pour des relations sexuelles. Deux hommes de Pennsylvanie ont été arrêtés pour agression sexuelle présumée sur la jeune fille.
Un troisième homme a changé d’avis après l’avoir rencontrée, a déclaré Schorn.
« Il y avait en fait un troisième homme qui a rencontré cette enfant, et lorsqu’il l’a rencontrée en personne, il était immédiatement évident qu’elle était une enfant et qu’il n’avait pas eu la relation sexuelle qu’il avait l’intention d’avoir », a-t-elle expliqué.
Les deux suspects qui ont rencontré la victime sur Grindr ont payé une caution, tandis que McCauley a été arrêté dans le Kentucky et attendait son extradition vers la Pennsylvanie.
« Cette affaire illustre l’ampleur de l’influence d’un prédateur sexuel d’enfants sur ces plateformes de médias sociaux », a ajouté Schorn. « Je peux vous assurer que l’enquête est toujours en cours et que, s’il y a d’autres victimes, nous veillerons à ce que cet individu soit poursuivi pour ces crimes. »
Les experts recommandent aux parents de surveiller leurs enfants s’ils ont accès à leurs smartphones et à internet. Il convient également d’interdire aux enfants l’accès aux applications qui permettent à des inconnus de les contacter.
« C’est malheureusement un thème que nous voyons encore et encore, et vous savez, ces forums permettent à ce type de prédateurs de le faire vraiment dans l’anonymat, et c’est assez effrayant », a conclu Schorn.
Le gouvernement autrichien a rejoint une liste croissante d’autorités dans des pays du monde entier qui recherchent activement des moyens d’imposer l’inclusion de portes dérobées de cryptage dans les applications de messagerie comme WhatsApp et Telegram, qui offrent des communications sécurisées.
2–3 minutes
La tendance anti-cryptage se poursuit, malgré les avertissements constants des experts en technologie et des défenseurs de la vie privée selon lesquels le cryptage ne peut pas être brisé d’une manière qui ne donne accès qu’aux « bons gars » comme les gouvernements et les forces de l’ordre tout en empêchant les acteurs malveillants d’entrer.
Mais lorsqu’il a évoqué plus tôt cette semaine un projet de loi visant à permettre la surveillance des communications jusque-là privées sur des applications cryptées, le ministre autrichien de l’Intérieur, Gerhard Karner (ÖVP), s’en est tenu au discours régulièrement répété selon lequel la police avait besoin d’un accès pour « égaliser les chances » tout en combattant « les terroristes et les extrémistes ».
Cette dernière définition semble couvrir les personnes qui se livrent à des « activités menaçant la Constitution ».
Malgré cette définition assez large, Karner a osé prédire que la police n’utiliserait pas les nouveaux pouvoirs importants proposés autrement que pour enquêter sur « quelques cas individuels par an ».
Sans entrer dans les détails de la manière dont il est arrivé à ce chiffre – ou comment une telle chose pourrait être prédite, à moins qu’il ne s’agisse simplement d’une tentative de minimiser l’opposition à de tels projets – le ministre a poursuivi en déclarant que les forces de l’ordre limiteraient leurs nouvelles capacités d’espionnage aux cas de suspicion de préparation d’une attaque terroriste, de formation de groupes terroristes – et « cela peut également être utilisé à des fins d’espionnage », a déclaré Karner.
Entre-temps, il a promis que « la population n’est pas affectée par cela ».
Autrement dit, la population doit faire confiance au gouvernement et à ses forces de l’ordre pour ne pas abuser à aucun moment de leur pouvoir d’accès et de lecture de leurs messages à des fins antidémocratiques comme la surveillance de masse.
Bien que ces craintes soient parfaitement raisonnables, le partenaire de coalition de Karner, le secrétaire d’État Jorg Leichtfried (SPO), les a rejetées, déclarant ne « voir aucun danger de surveillance de masse » découlant du projet de loi.
Au lieu d’entrer dans les détails des raisons pour lesquelles il en est ainsi, Leichtfried a continué à dire à « la population » ce qu’elle devrait ressentir, demandant en fait une confiance aveugle.
« La population doit avoir le sentiment que le pays devient plus sûr », a déclaré ce responsable.
Le troisième partenaire de la coalition au pouvoir, NEOS, n’est cependant pas entièrement d’accord.
Mais Karner pense que les deux autres partis parviendront à « convaincre » NEOS, au cours de la « longue période d’examen de huit semaines » du projet.
Open AI a décidé de porter plainte contre le patron de X et Tesla, lui reprochant «une campagne acharnée» pour lui nuire après qu’il a connu le succès sans lui.
2–3 minutes
La star de l’intelligence artificielle OpenAI a déposé plainte à son tour contre le multimilliardaire Elon Musk, accusant son ancien cofondateur d’avoir mené une «campagne acharnée» pour nuire à l’organisation après qu’elle a connu le succès sans lui. La start-up qui a lancé ChatGPT fin 2022 souhaite obtenir une injonction pour mettre fin à «d’autres actions illégales et injustes» de M. Musk, ainsi qu’une indemnisation.
Dans les documents juridiques déposés mercredi devant un tribunal californien, OpenAI affirme que Musk est devenu hostile à l’égard de l’entreprise après l’avoir abandonnée, des années avant sa percée dans l’intelligence artificielle (IA) générative. «Musk ne pouvait pas tolérer d’assister au succès d’une société qu’il avait abandonnée et déclarée condamnée», a assené OpenAI.
Musk avait «abandonné» Open AI
Cette plainte est le dernier épisode en date d’une querelle acerbe entre la championne technologique et l’homme le plus riche du monde, qui a poursuivi OpenAI en justice l’année dernière, en l’accusant d’avoir trahi sa mission fondatrice. Dans sa contre-attaque, l’entreprise estime que Musk «a décidé de détruire OpenAI et de construire un concurrent direct qui serait plus avancé technologiquement – non pas pour le bien de l’humanité, mais pour Elon Musk».
Le patron de Tesla et SpaceX a fondé sa propre entreprise d’IA générative, xAI, en 2023, et a investi des dizaines de milliards de dollars pour concurrencer les autres grands acteurs du secteur.
OpenAI a été fondée en décembre 2015 en tant que laboratoire de recherche à but non lucratif ayant pour mission de veiller à ce que l’intelligence artificielle générale (AGI) – désignant une IA aussi intelligente que des humains – «profite à l’ensemble de l’humanité».
"The whole idea of creating OpenAI, it was my idea. I named it OpenAI as in open source artifical intelligence.
— Tesla Owners Silicon Valley (@teslaownersSV) April 10, 2025
Elon Musk faisait partie des premiers bailleurs de fonds, aux côtés du patron actuel Sam Altman. Mais sa participation a été de courte durée, selon OpenAI. L’entreprise assure que Musk a quitté l’organisation après que ses dirigeants d’OpenAI ont refusé «de se plier à ses exigences sur le contrôle de l’entreprise ou, alternativement, son absorption dans Tesla».
OpenAI vaut aujourd’hui 300 milliards de dollars après son dernier tour de table de 40 milliards de dollars, la plus grosse levée de fonds jamais réalisée par une start-up non cotée. Mais OpenAI va devoir modifier ses statuts, pour se transformer en entreprise classique, tout en conservant l’organisation mère à but non lucratif.
OpenAI reproche à Elon Musk de lui nuire en présentant à tort ce changement de forme juridique comme une conversion totale, en multipliant les attaques dans la presse et sur son réseau social X où il compte plus de 200 millions d’abonnés et avec son «offre d’achat fictive pour les actifs d’OpenAI».
Les lois de censure du Royaume-Uni tracent désormais les frontières de la liberté d’expression en ligne, séparant les utilisateurs britanniques de leur propre public.
3–4 minutes
BitChute, plateforme reconnue pour son engagement en faveur de la liberté d’expression et de la liberté d’expression, a officiellement retiré ses services du Royaume-Uni, invoquant des conditions réglementaires intenables dans le cadre de la loi britannique sur la censure récemment promulguée, l’Online Safety Act. Cette décision fait suite aux nouvelles compétences renforcées de l’Ofcom, l’organisme de régulation des communications, qui lui permet d’infliger des amendes pouvant atteindre 10 % du chiffre d’affaires mondial d’une entreprise jugée non conforme aux exigences de censure très strictes de la loi.
Ce changement de réglementation marque ce que certains considèrent comme une profonde érosion des libertés numériques au Royaume-Uni. La décision de BitChute pourrait marquer le début d’un exode plus large, d’autres plateformes internationales pouvant suivre son exemple pour échapper à la surveillance excessive désormais codifiée par le droit britannique.
Dans une déclaration publique détaillée publiée sur son site Web, BitChute a expliqué la raison derrière cette mesure drastique :
« Après un examen attentif et une évaluation continue du paysage réglementaire au Royaume-Uni, nous avons le regret de vous informer que BitChute va interrompre son service de partage de vidéos pour les résidents du Royaume-Uni. »
La plateforme a souligné le caractère imprévisible et contraignant du nouveau cadre juridique, insistant sur les mandats étendus de la loi en matière de modération des contenus et sur les pouvoirs discrétionnaires qu’elle confère à l’Ofcom pour les faire respecter. BitChute a averti que ces dispositions créent un environnement juridique ambigu, plaçant les plateformes à la merci de normes floues et de sanctions sévères.
« La plateforme BitChute a toujours fonctionné selon les principes de liberté de parole, d’expression et d’association… Cependant, l’évolution des pressions réglementaires, notamment les mécanismes d’application stricts et les responsabilités potentielles, a créé un paysage opérationnel dans lequel continuer à servir le marché britannique expose notre entreprise à des risques juridiques et de conformité inacceptables. »
L’entreprise a mis en place des restrictions immédiates : les résidents du Royaume-Uni peuvent toujours publier du contenu sur la plateforme, mais aucune de leurs vidéos ne sera accessible aux autres utilisateurs basés au Royaume-Uni. Leur contenu restera visible pour les utilisateurs d’autres pays, qui pourront interagir avec lui comme d’habitude.
« Le changement majeur sera que ce contenu publié par un utilisateur britannique ne sera visible par aucun autre utilisateur britannique, mais sera visible par d’autres utilisateurs situés en dehors du Royaume-Uni. »
Cela signifie concrètement que même si les créateurs basés au Royaume-Uni ne sont pas totalement exclus de la participation, leurs voix sont désormais numériquement isolées de celles de leurs concitoyens, en raison de contraintes juridiques plutôt que techniques.
BitChute a exprimé ses regrets face à cette décision, la décrivant comme une nécessité regrettable, motivée par les exigences intenables de la loi sur la sécurité en ligne. L’entreprise a réitéré son engagement à offrir un espace de dialogue ouvert, sans pour autant s’exposer à un risque réglementaire disproportionné.
« Cette décision n’a pas été prise à la légère. Elle reflète notre engagement à maintenir les normes de conformité les plus strictes, à protéger notre communauté et à garantir que notre plateforme demeure un espace sûr et durable pour l’expression créative à l’échelle mondiale. »
Cette évolution constitue un avertissement sévère pour les autres plateformes et utilisateurs préoccupés par les implications d’une réglementation étatique des contenus. Avec le renforcement de l’application de la loi sur la sécurité en ligne, la liberté numérique au Royaume-Uni est confrontée à de nouvelles contraintes qui, selon beaucoup, risquent de faire taire les voix dissidentes et d’étouffer les discussions ouvertes sous couvert de sécurité.
Pour l’instant, BitChute reste accessible aux utilisateurs en dehors du Royaume-Uni et ses opérations mondiales se poursuivront.
Une décennie de relations amoureuses avec Pékin menace de révéler les ambitions les plus secrètes de la Silicon Valley.
3–4 minutes
Les législateurs américains ont ouvert une enquête sur Meta Platforms suite à des allégations de longue date selon lesquelles la société aurait exploré des moyens de collaborer avec le gouvernement chinois afin de pénétrer le marché numérique fortement restreint du pays.
La sous-commission permanente des enquêtes du Sénat exige des documents et des communications internes datant de plus d’une décennie, y compris ceux liés à des efforts qui auraient impliqué des mécanismes de censure conçus pour se conformer aux exigences de Pékin.
L’enquête, annoncée mardi, est menée par le sénateur Ron Johnson, avec le soutien des sénateurs Richard Blumenthal et Josh Hawley. Dans une requête officielle adressée au PDG Mark Zuckerberg, les sénateurs demandent à Meta de lui remettre des documents d’ici le 21 avril. L’enquête porte sur toutes les interactions entre Meta et les responsables chinois, ainsi que sur les discussions de l’entreprise concernant ses stratégies d’entrée sur le marché.
Nous avons obtenu une copie de la lettre complète pour vous ici .
Ce regain d’attention fait suite aux révélations publiées dans Careless People, les mémoires de Sarah Wynn-Williams, ancienne dirigeante de Facebook. L’ouvrage décrit une initiative secrète prétendument menée par Meta, appelée en interne « Projet Aldrin », qui aurait été élaborée en 2014 dans le cadre d’un plan triennal visant à établir une présence en Chine. Selon la lettre du Sénat, les documents internes de Meta examinés par la sous-commission corroborent le récit de Wynn-Williams.
Parmi les documents recherchés figurent des informations sur les filiales de Meta liées à la Chine, les lancements d’applications dans le pays, notamment des plateformes comme Colorful Balloons, Flash, Boomerang et MSQRD, ainsi que toute action entreprise par l’entreprise pour supprimer ou retirer du contenu à la demande de gouvernements étrangers. Les législateurs enquêtent également sur la tentative abandonnée de Meta d’établir un câble de données sous-marin reliant la Californie à Hong Kong.
Meta a fermement démenti ces allégations, les jugeant obsolètes et peu fiables. « Tout cela est imputable à un employé licencié il y a huit ans pour mauvaise performance. Nous n’exploitons plus nos services en Chine aujourd’hui. Ce n’est un secret pour personne que nous étions intéressés par cette initiative dans le cadre des efforts de Facebook pour connecter le monde », a déclaré un porte-parole de Meta. « Nous avons finalement décidé de ne pas donner suite aux idées que nous avions explorées, annoncées par Mark Zuckerberg en 2019. »
Malgré ces affirmations, le sénateur Blumenthal a déclaré que les documents internes examinés par la sous-commission suscitent de profondes inquiétudes. « Les documents alarmants des lanceurs d’alerte examinés par la sous-commission dressent un portrait accablant d’une entreprise qui censurerait, dissimulerait et tromperait pour accéder au marché chinois », a-t-il déclaré.
Les démarches juridiques de Meta pour faire taire Wynn-Williams ont alimenté la controverse. Le jour même de la publication de Careless People, l’entreprise a déposé une demande d’arbitrage, invoquant un accord volontaire de non-dénigrement qu’elle avait signé lors de son départ. Dans les 24 heures, un arbitre a émis une ordonnance de non-publication temporaire lui interdisant de tenir des « commentaires désobligeants, critiques ou autrement préjudiciables » à l’égard de Meta et de promouvoir le livre.
L’équipe juridique de Wynn-Williams a depuis fait pression pour faire annuler cette décision, arguant que l’ordonnance l’empêchait de répondre aux demandes de renseignements des membres du Congrès et des gouvernements étrangers. Ses avocats affirment que le silence imposé par l’arbitrage empêche l’accès à des témoignages clés sur le comportement des entreprises, qui ont des implications concrètes en matière de politique publique. Meta, pour sa part, a affirmé ne pas avoir l’intention de porter atteinte à ses droits.
Le projet de loi remanié réduit sa portée mais approfondit son empreinte numérique, entraînant dans la mêlée les utilisateurs de VPN et les analyses biométriques.
2–3 minutes
La semaine dernière, un juge fédéral a décidé d’ annuler la loi sur la sécurité des médias sociaux (loi 689) – la loi de l’Arkansas sur l’identité numérique de vérification de l’âge en ligne – après avoir conclu que certaines de ses dispositions étaient inconstitutionnellement vagues et en violation du premier amendement.
Les représentants du groupe industriel technologique NetChoice, qui a mené la charge juridique contre la loi 689, ont salué la décision, le directeur du contentieux Chris Marchese déclarant qu’elle « protège les Américains de l’obligation de remettre leurs pièces d’identité ou leurs données biométriques simplement pour accéder à un discours constitutionnellement protégé en ligne ».
Cependant, une nouvelle proposition est arrivée peu après : le projet de loi 611 du Sénat (SB 611) . Il a été présenté au Sénat de l’Arkansas par les républicains de l’État pour modifier la loi 689, afin de répondre aux préoccupations constitutionnelles soulevées par la décision du juge de district américain Timothy L. Brooks.
La loi de 2023 sur la sécurité des médias sociaux a été promue et adoptée afin de protéger les mineurs des dangers en ligne. Cependant, le juge Brooks a estimé que « plutôt que de cibler les contenus préjudiciables aux mineurs, la loi 689 entrave simplement l’accès aux contenus en général ».
Le projet de loi SB 611 modifie la législation initiale en ajoutant une nouvelle définition de mineur – auparavant une personne de 18 ans et moins, désormais de 16 ans et moins – ainsi que la définition légale des plateformes de réseaux sociaux tenues de s’y conformer. Cependant, il continue d’exiger que les plateformes mettent en œuvre des méthodes « raisonnables » de vérification de l’âge.
Ces méthodes incluent l’accès aux identifiants numériques ou aux données biométriques. Les utilisateurs de VPN sont également dans le collimateur de la nouvelle proposition, car elle obligerait les plateformes à vérifier l’âge des résidents de l’Arkansas accédant aux réseaux sociaux « alors qu’ils sont connus ou supposés se trouver » dans l’État – et cela couvrirait l’utilisation des VPN.
D’autres changements limitent les dispositions du projet de loi aux seuls nouveaux comptes et interdisent aux plateformes de cibler les mineurs par algorithme, tandis que le non-respect serait sanctionné par des amendes.
Le projet de loi SB 612 a été introduit avec le projet de loi SB 611 comme législation complémentaire permettant aux parents de poursuivre les entreprises de médias sociaux si leur enfant commet ou tente de se suicider, ou subit des dommages à sa santé mentale ou physique en raison d’une exposition à du contenu en ligne « promouvant ou favorisant de toute autre manière l’automutilation ou le suicide ».
Certains rapports sur le projet de loi SB 611 et ses principales exigences le considèrent comme faisant partie d’une initiative plus large dans l’Arkansas qui comprend des cartes d’identité mobiles et des permis de conduire numériques, qui ont été récemment introduits et prévoient une « infrastructure » qui serait utilisée par les plateformes pour vérifier l’âge d’un utilisateur.
L’analyse des empreintes digitales est un outil fiable dans la résolution des crimes depuis plus d’un siècle. Les enquêteurs s’appuient sur les empreintes digitales pour identifier les suspects ou les relier à des scènes de crime spécifiques, convaincus que chaque empreinte offre un code distinctif.
6–9 minutes
Pourtant, une équipe de chercheurs a découvert que les empreintes de différents doigts d’une même personne peuvent parfois sembler plus semblables.
Cette découverte est venue d’un modèle d’intelligence artificielle qui a révélé des liens surprenants entre les empreintes.
Hod Lipson, de Columbia Engineering, se distingue dans cet effort visant à remettre en question les normes médico-légales largement acceptées, en collaboration avec Wenyao Xu de l’ Université de Buffalo .
L’IA s’attaque aux empreintes digitales
Pendant des décennies, on a tenu pour acquis que les empreintes digitales des différents doigts d’un même individu ne correspondaient pas. Cette croyance repose en grande partie sur l’hypothèse selon laquelle chaque doigt présente des crêtes, des boucles et des tourbillons totalement distincts.
Un critique anonyme a même déclaré : « Il est bien connu que chaque empreinte digitale est unique », lorsqu’il a été confronté au travail des chercheurs.
Malgré cette résistance, un étudiant de dernière année de Columbia Engineering, nommé Gabe Guo, a mené une étude qui contredit cette hypothèse de longue date.
En utilisant une base de données publique du gouvernement américain contenant environ 60 000 empreintes digitales, Guo a intégré des paires d’empreintes digitales dans un réseau contrasté profond. Certaines paires appartenaient à la même personne, tandis que d’autres provenaient de personnes différentes.
Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.
Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.
Les chercheurs font tanguer le bateau
Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.
Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .
Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.
« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.
Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.
Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.
Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.
Les chercheurs font tanguer le bateau
Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.
Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .
Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.
« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.
Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.
Finalement, leur persévérance a porté ses fruits puisque leur étude a finalement été reconnue et publiée dans la revue à comité de lecture Science Advances .
L’IA donne de nouveaux indices dans l’analyse des empreintes digitales
Les méthodes traditionnelles s’appuient sur des détails, qui font référence aux modèles de ramification et aux points d’extrémité des crêtes.
« L’IA n’utilisait pas les « minuties », qui sont les ramifications et les points d’extrémité des crêtes d’empreintes digitales – les modèles utilisés dans la comparaison traditionnelle des empreintes digitales », a expliqué Guo.
« Au lieu de cela, il utilisait autre chose, lié aux angles et aux courbures des tourbillons et des boucles au centre de l’empreinte digitale. »
Ses conclusions suggèrent que les experts ont peut-être négligé des indices visuels importants.
La collaboration comprenait Aniv Ray, diplômé de Columbia Engineering, et Judah Goldfeder, étudiant au doctorat, qui ont tous deux indiqué que le succès initial du projet pourrait se renforcer avec des ensembles de données plus volumineux.
« Imaginez à quel point cela fonctionnera bien une fois qu’il sera formé sur des millions, au lieu de milliers d’empreintes digitales », a fait remarquer Ray, laissant entendre que cette approche pourrait éventuellement affiner la façon dont les enquêteurs recherchent des indices sur plusieurs scènes de crime.
Biais potentiel et prochaines étapes
Les chercheurs sont attentifs aux éventuelles lacunes dans les données. Ils ont constaté que leur système affichait des performances similaires auprès de différents groupes démographiques, mais ont souligné la nécessité de disposer de collections d’empreintes digitales plus vastes et plus diversifiées.
Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.
L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.
Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.
« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.
« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »
IA, empreintes digitales et application de la loi
Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.
Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.
Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.
Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.
L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.
Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.
« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.
« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »
IA, empreintes digitales et application de la loi
Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.
Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.
Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.
« Ce qui est encore plus passionnant, c’est qu’un étudiant de premier cycle, sans aucune expérience en criminalistique, puisse utiliser l’IA pour remettre en question avec succès une croyance largement répandue dans tout un domaine », a conclu Lipson.
« Nous sommes sur le point de vivre une explosion de découvertes scientifiques menées par des non-experts grâce à l’IA, et la communauté des experts, y compris le monde universitaire, doit s’y préparer. »
Un comportement autrefois considéré comme personnel est désormais un indicateur dans le calcul de l’obéissance du Parti.
1–2 minutes
Le parti au pouvoir en Chine a introduit une nouvelle série de 23 directives visant à étendre son infrastructure de crédit social déjà tentaculaire, renforçant un système qui attribue des scores comportementaux aux citoyens et aux organisations afin de contrôler l’accès aux services et opportunités de base.
Publiées par l’ agence de presse Xinhua , soutenue par l’État , ces nouvelles mesures sont présentées comme une stratégie visant à remédier à ce que le gouvernement décrit comme une surveillance fragmentée et un partage limité des données. Mais en pratique, cette réforme revient à renforcer la surveillance, qui renforce le contrôle non seulement des particuliers et des entreprises, mais aussi des collectivités locales et des institutions publiques.
Le système de crédit social agrège des données personnelles et institutionnelles pour générer des classements qui influencent tout. Un comportement jugé inacceptable par le Parti communiste – comme la participation à une activité religieuse, l’expression d’une dissidence ou même des infractions mineures comme traverser la rue sans autorisation – peut entraîner des sanctions. Avec l’élargissement progressif du champ d’application du système au fil des ans, ce qui n’était au départ qu’un outil de crédibilité financière s’est transformé en un mécanisme de contrôle de la conformité sociale.
Le nouveau cadre vise à fluidifier la collecte et la diffusion des données entre les ministères, sous couvert d’efficacité. Selon Xinhua, ces directives étendront la portée du système à « tous types d’entités », englobant non seulement les entreprises privées, mais aussi les organismes gouvernementaux et les entreprises publiques.
Xinhua a affirmé que les changements seraient mis en œuvre conformément aux garanties visant à protéger « la sécurité de l’information et les droits individuels ». Mais ces assurances n’ont guère apaisé les inquiétudes de ceux qui considèrent le système comme intrinsèquement coercitif et opaque, en particulier lorsqu’il est utilisé pour réprimer la dissidence et récompenser l’obéissance politique.
La course est lancée pour conquérir le marché des robots humanoïdes, qui représente plusieurs milliards de dollars. L’IA peut instantanément adapter les robots polyvalents à n’importe quelle tâche. Les robots personnels, par exemple, cuisineront vos repas, nettoieront votre maison, feront votre lessive, donneront des cours particuliers à vos enfants, conduiront votre voiture, tondront votre pelouse, s’occuperont de vos parents âgés, répareront votre plomberie, etc. Alors qu’un iPhone propose de nombreuses applications accessibles depuis un seul appareil, les robots vous libéreront d’un seul écran pour envahir le monde physique. Tesla établira probablement la norme avec son modèle Optimus à partir de 20 000 à 30 000 dollars. ⁃ Patrick Wood, rédacteur en chef.
3–4 minutes
« Il y a un moment crucial pour l’iPhone avec les humanoïdes », a déclaré Brett Adcock, fondateur de Figure, une entreprise californienne de robotique humanoïde. « Cela va arriver maintenant », a ajouté l’entrepreneur en série, dont les robots sont déjà à l’œuvre sur la chaîne de production de l’usine BMW de Spartanburg . Un autre client majeur teste ses robots en entrepôt. « Pour réussir, il faut réaliser trois choses inédites. Et il faut les maîtriser toutes les trois dans les cinq prochaines années, sinon c’est l’échec assuré. »
« La première chose à faire est de concevoir un matériel pour humanoïdes incroyablement complexe et infaillible, capable de fonctionner à la vitesse et avec une amplitude de mouvement humaines », explique Adcock. « La deuxième chose à faire est un problème de réseau neuronal, et non de système de contrôle. On ne peut pas résoudre ce problème par le code. Il faut un robot capable d’ingérer des données de type humain via un réseau neuronal et capable d’imiter les actions humaines. Les robots humanoïdes ne sont pas comme des bras fixés à une table d’usine. Aucun de ces robots n’est doté d’IA. »
« Le troisième problème est qu’il faut généraliser. C’est le Saint Graal de la robotique », a expliqué Adcock. « Faire en sorte qu’un robot observe quelque chose qu’il n’a jamais vu ou entendu auparavant, et pouvoir lui dire comment le faire, puis le faire réaliser de bout en bout grâce à un réseau neuronal », a-t-il déclaré. « Si vous parvenez à résoudre ces trois problèmes, alors vous êtes dans la bonne décennie et vous êtes à l’ère de l’iPhone », a-t-il conclu. « Et nous pouvons affirmer avec certitude que nous avons résolu ou progressons considérablement sur ces trois problèmes. »
« Si nous disposions aujourd’hui de 100 000 robots fonctionnels, nos deux clients commerciaux les prendraient tous », a déclaré Adcock, incapable de tirer parti des chaînes d’approvisionnement à grande échelle, car elles n’existent pas encore ; il est encore tôt. Le pays gagnant reste incertain. « Et nous pourrions signer avec cinquante entreprises du Fortune 100 d’ici le week-end. Nous sommes submergés par la demande. L’offre de main-d’œuvre est en baisse. » La population en âge de travailler est en forte baisse dans les pays développés. « La demande est illimitée. Nous pourrions livrer un million de robots ce mois-ci s’ils étaient tous prêts à l’emploi. »
J’ai demandé à Perplexity de me parler des principales entreprises produisant des robots humanoïdes. Perplexity est une IA qui excelle dans la recherche d’informations actualisées sur le web. J’utilise désormais différents robots selon le type de tâche. Je suppose qu’un jour, nous aurons tous plusieurs robots. Quoi qu’il en soit, Perplexity m’a présenté le top 10 des entreprises : Figure de Brett Adcock, Boston Dynamics, et bien d’autres dont je n’avais jamais entendu parler. Tesla figurait bien sûr dans la liste, avec son robot humanoïde Optimus, piloté par une IA propriétaire, qui devient plus intelligent chaque jour que je conduis.
Le président Donald Trump a annoncé la signature d’un décret présidentiel permettant à TikTok de continuer à fonctionner pendant 75 jours supplémentaires afin de finaliser l’ acquisition de l’entreprise chinoise ByteDance.
2–3 minutes
Trump a publié sur Truth Social : « Mon administration a travaillé d’arrache-pied sur un accord pour sauver TikTok, et nous avons réalisé d’énormes progrès. Cet accord nécessite davantage de travail pour garantir la signature de toutes les autorisations nécessaires. C’est pourquoi je signe un décret présidentiel permettant à TikTok de continuer à fonctionner pendant 75 jours supplémentaires. »
— The Post Millennial (@TPostMillennial) April 4, 2025
Nous espérons continuer à travailler de bonne foi avec la Chine, qui, je crois savoir, n’est pas très satisfaite de nos tarifs douaniers réciproques (nécessaires à un commerce équitable et équilibré entre la Chine et les États-Unis !). Cela prouve que les tarifs douaniers sont l’outil économique le plus puissant et essentiel à notre sécurité nationale ! Nous ne voulons pas que TikTok disparaisse. Nous sommes impatients de collaborer avec TikTok et la Chine pour conclure l’accord. Merci de votre attention ! a ajouté M. Trump.
Une loi interdisant l’application à moins que ByteDance ne cède ou ne vende sa participation dans le réseau social a été approuvée par le Congrès l’année dernière. Cependant, ByteDance et certains utilisateurs ont ensuite intenté une action en justice contre le gouvernement américain pour des motifs de liberté d’expression. La Cour suprême a jugé que la loi ne portait pas atteinte à la liberté d’expression de l’entreprise, et l’interdiction devait entrer en vigueur début 2025, la veille de l’investiture de Trump.
Trump a prolongé la date limite d’interdiction, puis a collaboré avec des entreprises basées aux États-Unis pour racheter l’application. Cette date limite pour l’interdiction de TikTok était initialement fixée au 5 avril, mais Trump s’apprête à signer un décret la prolongeant de 75 jours supplémentaires.
Cette ordonnance intervient alors que Trump tente également de négocier des accords commerciaux avec d’autres pays après avoir annoncé les droits de douane réciproques du « Jour de la Libération » en début de semaine. Il a indiqué jeudi qu’il était ouvert à une levée des droits de douane sur les importations chinoises aux États-Unis si la Chine approuvait la vente de TikTok.
Bien que la vente de l’application n’ait pas eu lieu, la Chine a riposté au tarif de 34 % imposé par Trump sur les produits chinois importés aux États-Unis et a imposé un tarif supplémentaire de 34 % sur les produits américains importés en Chine.
Les sanctions constituent « une attaque sans précédent contre la liberté d’expression »
2–3 minutes
Le compte X d’Elon Musk affiché sur l’écran d’un téléphone
L’Union européenne finalise actuellement des sanctions contre la plateforme de réseau social X d’Elon Musk, qui pourraient dépasser le milliard d’euros. Cette mesure, qui devrait être annoncée cet été, fait suite à des violations présumées du Digital Services Act (DSA), un règlement de 2022 visant à contraindre les entreprises technologiques à réglementer les contenus que l’UE juge « illicites » et « de désinformation ».
L’enquête contre X a débuté en 2023. L’année dernière, les autorités de régulation ont rendu une décision préliminaire soulignant des violations de la DSA . Parmi les allégations figuraient le refus de X de partager des données avec des chercheurs externes, rendant difficile le suivi du contenu, et un manque de transparence concernant les annonceurs et la vérification des comptes payants.
L’UE affirme que cela rend la plateforme vulnérable aux abus et aux ingérences étrangères. En vertu de la DSA, les amendes peuvent atteindre jusqu’à 6 % du chiffre d’affaires mondial d’une entreprise. Dans le cas de X, les régulateurs pourraient inclure les revenus d’autres entreprises d’Elon Musk, comme SpaceX, portant ainsi la sanction potentielle à plus d’un milliard d’euros.
X n’a pas encore publié de déclaration officielle. Cependant, après les premières informations faisant état de sanctions, l’entreprise a indiqué sur sa plateforme que les mesures prises à son encontre constitueraient « une atteinte sans précédent à la liberté d’expression ». Musk, connu pour son rejet des réglementations européennes, a déclaré en juillet dernier, suite à la décision préliminaire, qu’il porterait l’affaire devant les tribunaux dans le cadre d’une « bataille publique ». Si X refuse de se conformer aux injonctions de l’UE, cela pourrait déclencher une confrontation juridique aux implications transatlantiques.
L’affaire contre X constitue le premier test significatif de la DSA. C’est peut-être la raison pour laquelle ils ont choisi de s’attaquer à une entreprise aussi connue.
Outre l’enquête principale, X fait également l’objet d’une seconde enquête, plus vaste, concernant son engagement en faveur de la liberté d’expression et son refus de censurer massivement les contenus générés par les utilisateurs. Les responsables européens affirment que la plateforme est devenue une source de « discours de haine » et de « désinformation » qui « menacent la démocratie ». Cependant, les critiques affirment que cela s’inscrit dans une tentative plus large de Bruxelles de garder le contrôle du discours.
L’affaire X n’est pas isolée. L’UE prépare également des sanctions contre Meta et Apple pour violation du Digital Markets Act de 2022. Une autre enquête est également en cours contre Meta pour manquement présumé à protéger adéquatement les mineurs en vertu du DSA.
Cette tendance illustre l’attitude de plus en plus agressive de Bruxelles envers les entreprises technologiques américaines, une approche qui a généré des frictions avec Washington. En février, le vice-président américain J.D. Vance a comparé la réglementation européenne à de la censure numérique, tandis qu’une note de la Maison Blanche avertissait que les lois européennes pourraient cibler injustement les entreprises américaines.
Alors que Musk est déterminé à résister et que l’UE est déterminée à imposer son autorité, ce conflit pourrait redéfinir l’équilibre entre régulation et liberté dans l’espace numérique à un moment de tension croissante entre les deux côtés de l’Atlantique.
Le projet allemand de contrôle des discours en ligne ressemble moins à une politique qu’à un manuel de contrôle en version bêta.
2–3 minutes
L’Allemagne pourrait bientôt resserrer encore davantage son emprise sur la parole numérique, car des documents internes obtenus par BILD lors des négociations de coalition en cours entre la CDU de centre-droit (dirigée par Friedrich Merz) et le SPD de centre-gauche (dirigé par le chancelier Olaf Scholz) pointent vers un programme inquiétant : étendre l’autorité de l’État pour contrôler la soi-disant « désinformation ».
En coulisses, la future coalition semble élaborer des politiques qui élargiraient considérablement l’influence de l’État sur ce qui peut ou non être dit en ligne, notamment sur les réseaux sociaux. Ces propositions, issues du groupe de travail « Culture et Médias » de la coalition, témoignent d’une volonté claire d’intensifier la pression sur les plateformes comme X et d’intensifier les efforts pour supprimer les contenus qualifiés de « fake news ».
Cette initiative repose sur la conviction, reprise dans le document exploratoire de la coalition, que « la désinformation et les fausses nouvelles » constituent un danger pour la démocratie. Mais le document de négociation va encore plus loin : « La diffusion délibérée de fausses allégations factuelles n’est pas couverte par la liberté d’expression. » Cette phrase, citée par BILD, pose les bases de restrictions potentiellement radicales à la liberté d’expression, suscitant de vives inquiétudes parmi les juristes et les défenseurs de la liberté d’expression.
Le document soutient qu’un organisme de régulation des médias, prétendument indépendant, doit être habilité à réprimer la prétendue « manipulation de l’information », ainsi que « la haine et l’incitation », le tout à la condition, vague, qu’il respecte des « exigences légales claires ». Mais lorsque le gouvernement ou ses mandataires commencent à définir ce qui constitue de la désinformation, la porte s’ouvre grande ouverte à une censure à motivation politique.
Nombreux sont ceux qui y verront une dangereuse avancée vers la criminalisation de la dissidence. Le juriste Volker Boehme-Neßler, de l’Université d’Oldenbourg, a déclaré à BILD : « Les mensonges ne sont interdits que s’ils sont punissables, par exemple en cas d’incitation à la haine. Sinon, on peut mentir. » Il a également souligné que la frontière entre fait et opinion est souvent floue et contestée : « La question n’est pas simple : ce qui constitue une déclaration de fait et ce qui constitue l’expression d’une opinion. Dans la plupart des cas, les tribunaux interprètent la liberté d’expression de manière très large. »
Cette décision reflète des inquiétudes plus larges soulevées à l’échelle internationale. Le vice-président américain J.D. Vance avait déjà critiqué la politique de l’Allemagne en matière de migration de masse et de censure, avertissant que la répression de la dissidence par Berlin risquait de devenir autodestructrice.
Alors que le discours politique est de plus en plus vulnérable à une classification arbitraire comme désinformation, les critiques craignent que ces nouvelles politiques ne représentent pas une défense de la démocratie, mais une érosion de l’un de ses piliers les plus fondamentaux : le droit à un débat libre et ouvert.
L’article 95 cache un changement radical en matière de surveillance derrière la rhétorique de la sécurité publique.
2–3 minutes
Le projet de loi britannique sur la criminalité et la police de 2025, présenté en février et parrainé par le ministère de l’Intérieur dirigé par Yvette Cooper, progresse à la Chambre des communes, ayant atteint le stade du comité.
La législation , qui est maintenant à deux doigts d’être envoyée à la Chambre des Lords, vise à donner aux forces de l’ordre davantage de pouvoirs dans un certain nombre de domaines, notamment un meilleur accès aux données des permis de conduire.
Ceci est à son tour interprété par les critiques, y compris les groupes de défense des droits civiques, comme ouvrant la voie aux forces de l’ordre pour commencer à utiliser plus de 50 millions de photos de permis de conduire pour les recherches de reconnaissance faciale.
Le gouvernement travailliste a effectivement réintroduit une disposition contenue dans le projet de loi sur la justice pénale promu par le cabinet précédent, qui a finalement dû abandonner ces projets en raison de fortes critiques.
Big Brother Watch compare l’introduction de dizaines de millions de photos de permis de conduire dans la machine de reconnaissance faciale à la transformation de ces photos « en photos d’identité », tout en regroupant ce type de données personnelles dans « une vaste base de données policière » – et tout cela, sans garanties de confidentialité adéquates.
Le groupe rappelle également que la tentative du gouvernement conservateur, que le Parti travailliste « réutilise » actuellement via le nouveau projet de loi sur la police, visait à donner aux forces de l’ordre – police et National Crime Agency (NCA) incluses – accès aux photos afin de procéder à des recherches par reconnaissance faciale.
Mais ce que l’ancien ministre d’État chargé de la police, Chris Philp, qualifiait à l’époque de « anormalement (..) assez difficile actuellement » – a désormais de bonnes chances de réussir.
La justification générale des autorités pour laquelle le projet de loi sur la criminalité et la police nécessite les changements proposés est de lutter plus efficacement contre « l’épidémie de violence grave et de violence contre les femmes et les filles qui souille notre société » et de « doter la police des pouvoirs dont elle a besoin pour lutter contre les comportements antisociaux, la criminalité et le terrorisme » – avec l’article 95 inséré là-dedans, qui élargit considérablement les pouvoirs de surveillance biométrique.
En effet, la clause précise qu’il appartiendrait au Secrétaire d’État à l’Intérieur (fonction actuellement occupée par Cooper) d’émettre un règlement qui donnerait ensuite à la police, à la NCA et également à l’Independent Office for Police Conduct l’accès aux « informations sur le permis de conduire » à des fins de maintien de l’ordre ou d’application de la loi.
Big Brother Watch considère cela comme l’octroi de pouvoirs extraordinaires qui facilitent l’identification et le suivi de toute personne possédant un permis de conduire au Royaume-Uni.
« Non seulement cela constituerait une atteinte sans précédent à la vie privée, mais cela exposerait également des citoyens innocents à des risques d’identification erronée et d’injustice », a averti l’organisation à but non lucratif.
Ce qui commence comme une mesure de sécurité pourrait discrètement annoncer la fin de l’anonymat en ligne.
2–3 minutes
L’essai technologique australien de vérification de l’âge poursuit son évolution et compte désormais 51 organisations participantes, dont le nouveau géant technologique Google. L’initiative, qui visait à explorer les outils numériques de vérification de l’âge des utilisateurs en ligne, a fermé ses portes à de nouveaux participants – à l’exception de quelques-uns encore en discussion – et a publié des mises à jour sur les procédures de test et la conformité réglementaire.
Cependant, au-delà de l’objectif superficiel de sécurité des enfants, cette expérience nationale soulève des inquiétudes plus profondes quant à la confidentialité numérique et à l’avenir de l’anonymat en ligne. Nombre des technologies testées – des scans biométriques aux vérifications d’identité sur papiers – offrent le potentiel de relier directement une activité en ligne à une personne vérifiée. Sous couvert de vérification de l’âge, ces systèmes pourraient discrètement normaliser un modèle où chaque action en ligne est traçable jusqu’à une identité réelle.
Cette approche porte atteinte au principe fondamental de l’anonymat en ligne. Une fois l’identité numérique intégrée aux services en ligne, l’infrastructure pourrait facilement s’étendre au-delà des contenus soumis à des restrictions d’âge. Cela pourrait ouvrir la voie à une surveillance plus large, permettant aux gouvernements ou aux entreprises de surveiller les discours, les comportements et les préférences avec une précision alarmante. Le risque est que les vérifications obligatoires de l’âge deviennent la porte d’entrée vers un régime d’identification de grande envergure qui compromettrait le droit à la vie privée et restreindrait la liberté d’expression.
Même si les organisateurs de l’essai soulignent leur respect des normes juridiques – affirmant que l’accord de participation mis à jour « étend nos engagements à respecter la législation australienne sur la protection de la vie privée et les autres lois et réglementations pertinentes à tous les participants » – cette conformité ne tient pas nécessairement compte des implications éthiques et sociétales plus larges. L’expansion des systèmes basés sur l’identité dans les espaces numériques crée un effet dissuasif, en particulier pour les voix marginalisées ou les personnes qui tiennent des propos sensibles et qui comptent sur l’anonymat pour leur sécurité.
On le voit retirer la nappe de l’autel avant d’être arrêté par la sécurité devant des touristes stupéfaits.
L’autel est situé juste sous le célèbre baldaquin en pierre de la basilique, conçu par l’artiste italien Gian Lorenzo Bernini, qui a été récemment restauré.
L’incident a lieu pendant l’année jubilaire de l’Église catholique, alors que 32 millions de pèlerins devraient venir à Rome en 2025.
La basilique se prépare à un afflux de visiteurs, étant donné qu’elle est une destination pour ceux qui viennent à Rome pour le jubilé.
Laisser un commentaire