Un défi consistant à avaler des doses massives circule actuellement sur les réseaux sociaux, TikTok en tête.
1–2 minutes
«Le «paracétamol challenge», populaire sur TikTok, invite ceux qui le relèvent à avaler une dose massive de cette substance afin de devoir être hospitalisés le plus longtemps possible»
Le paracétamol est le plus souvent commercialisé sous le nom de Dafalgan (ou Doliprane, Efferalgan, Panadol, etc.) et peut être vendu sans ordonnance. Surtout, ce challenge est tout sauf anodin, il pourrait même entraîner la mort.
Pharmacies prévenues
«En cas de surdose, le foie peut être gravement endommagé. Dans les cas extrêmes, l’abus de paracétamol peut entraîner la mort. Pour un adulte, 3-4 grammes par tranche de 24 heures sont la limite maximale à ne pas dépasser. Pour les enfants, c’est 0.06 gramme par kilo par jour», est-il souligné.
Une intoxication au paracétamol peut se manifester par des maux de ventre, nausées, problèmes de coordination, ou encore une peau jaune. Si ces symptômes apparaissent chez un enfant ou un adolescent, il faut rapidement appeler son médecin traitant ou se rendre aux urgences.
Les autorités vaudoises notent encore que les pharmacies ont été sensibilisées à cette problématique du «paracétamol challenge» afin d’être vigilantes à la vente à des jeunes.
Le Jura a également communiqué ce jeudi sur le dangereux défi. Le «Service cantonal de la santé publique tient à alerter la population, particulièrement les parents et les jeunes, sur les risques majeurs liés à cette pratique», peut-on lire.
«La Liberté» explique de son côté que la pharmacienne cantonale fribourgeoise Sophie Maillard s’inquiète aussi de ce nouveau challenge. Et si aucune hospitalisation liée au défi n’a été recensée à Fribourg, les pharmacies ont été alertées.
Quatre nouvelles lois viseront à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’intelligence artificielle (IA), a annoncé le gouvernement.
4–6 minutes
Le ministère de l’Intérieur a déclaré que le Royaume-Uni serait le premier pays au monde à rendre illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer du matériel d’abus sexuel sur mineur (CSAM), avec une peine pouvant aller jusqu’à cinq ans de prison.
La possession de manuels pédophiles basés sur l’IA – qui enseignent aux gens comment utiliser l’IA pour commettre des abus sexuels – sera également rendue illégale, et les contrevenants seront passibles d’une peine allant jusqu’à trois ans de prison.
« Ce que nous constatons, c’est que l’IA dope désormais la maltraitance des enfants en ligne », a déclaré la ministre de l’Intérieur Yvette Cooper à l’émission Sunday with Laura Kuenssberg de la BBC.
Cooper a déclaré que l’intelligence artificielle « industrialisait l’ampleur » des abus sexuels contre les enfants et que les mesures gouvernementales « pourraient devoir aller plus loin ».
D’autres lois devraient être introduites, notamment celle qui rendrait punissable la gestion de sites Internet sur lesquels des pédophiles peuvent partager des contenus pédophiles ou donner des conseils sur la manière de manipuler les enfants. Cette infraction serait passible d’une peine pouvant aller jusqu’à 10 ans de prison.
La police des frontières sera également habilitée à ordonner aux personnes soupçonnées de présenter un risque sexuel pour les enfants de déverrouiller leurs appareils numériques pour inspection lorsqu’elles tentent d’entrer au Royaume-Uni, car les images d’abus sexuels sur mineurs sont souvent filmées à l’étranger. Selon la gravité des images, cette infraction sera passible d’une peine pouvant aller jusqu’à trois ans de prison.
Les images d’abus sexuels sur mineurs générées artificiellement sont des images générées en partie ou entièrement par ordinateur. Un logiciel peut « rendre inutilisables » les images réelles et remplacer le visage d’un enfant par celui d’un autre, créant ainsi une image réaliste.
Dans certains cas, les voix réelles d’enfants sont également utilisées, ce qui signifie que des survivants innocents d’abus sont à nouveau victimisés.
De fausses images sont également utilisées pour faire chanter les enfants et forcer les victimes à subir de nouveaux abus.
L’Agence nationale de lutte contre la criminalité (NCA) a déclaré que 800 arrestations étaient effectuées chaque mois en lien avec des menaces proférées contre des enfants en ligne. Elle a déclaré que 840 000 adultes constituent une menace pour les enfants à l’échelle nationale – en ligne et hors ligne – ce qui représente 1,6 % de la population adulte.
Cooper a déclaré : « Il y a des auteurs qui utilisent l’IA pour les aider à mieux préparer ou faire chanter des adolescents et des enfants, en déformant les images et en les utilisant pour inciter les jeunes à subir d’autres abus, ce qui provoque des choses encore plus horribles et devient également plus sadique. »
Elle a poursuivi : « C’est un domaine dans lequel la technologie ne s’arrête pas et notre réponse ne peut pas s’arrêter pour assurer la sécurité des enfants. »
Certains experts estiment cependant que le gouvernement aurait pu aller plus loin.
La professeure Clare McGlynn, experte en matière de réglementation juridique de la pornographie, de la violence sexuelle et des abus en ligne, a déclaré que les changements étaient « bienvenus » mais qu’il existait « des lacunes importantes ».
Le gouvernement devrait interdire les applications de « nudification » et s’attaquer à la « normalisation de l’activité sexuelle avec des filles d’apparence jeune sur les sites pornographiques grand public », a-t-elle déclaré, décrivant ces vidéos comme des « vidéos simulées d’abus sexuels sur des enfants ».
Ces vidéos « impliquent des acteurs adultes mais ils ont l’air très jeunes et sont montrées dans des chambres d’enfants, avec des jouets, des nattes, des appareils dentaires et d’autres signes de l’enfance », a-t-elle déclaré. « Ce matériel peut être trouvé avec les termes de recherche les plus évidents et légitime et normalise les abus sexuels sur mineurs. Contrairement à de nombreux autres pays, ce matériel reste légal au Royaume-Uni. »
L’Internet Watch Foundation (IWF) prévient que de plus en plus d’images d’abus sexuels sur des enfants sont produites par l’IA, et qu’elles deviennent de plus en plus courantes sur le Web ouvert.
Les dernières données de l’association montrent que les signalements de CSAM générés par l’IA ont augmenté de 380 %, avec 245 signalements confirmés en 2024 contre 51 en 2023. Chaque rapport peut contenir des milliers d’images.
L’année dernière, une étude a révélé que sur une période d’un mois, 3 512 images d’abus et d’exploitation sexuelle d’enfants ont été découvertes sur un site Web sombre. Par rapport au mois de l’année précédente, le nombre d’images de la catégorie la plus grave (catégorie A) a augmenté de 10 %.
Les experts affirment que les images CSAM générées par l’IA peuvent souvent paraître incroyablement réalistes, ce qui rend difficile de distinguer le vrai du faux.
Le directeur général par intérim de l’ IWF, Derek Ray-Hill, a déclaré : « La disponibilité de ce contenu d’IA alimente davantage la violence sexuelle contre les enfants.
« Cela encourage les agresseurs et rend les enfants plus vulnérables. Il reste certainement beaucoup à faire pour empêcher l’exploitation de la technologie de l’IA, mais nous saluons cette annonce et pensons que ces mesures constituent un point de départ essentiel. »
Lynn Perry, directrice générale de l’association caritative pour les enfants Barnardo’s, a salué l’action du gouvernement pour lutter contre le matériel d’abus d’enfants produit par l’IA, « qui normalise les abus envers les enfants, mettant davantage d’entre eux en danger, en ligne et hors ligne ».
« Il est essentiel que la législation suive le rythme des avancées technologiques pour prévenir ces crimes horribles », a-t-elle ajouté.
« Les entreprises technologiques doivent s’assurer que leurs plateformes sont sûres pour les enfants. Elles doivent prendre des mesures pour introduire des mesures de protection plus strictes, et l’Ofcom doit veiller à ce que la loi sur la sécurité en ligne soit mise en œuvre de manière efficace et rigoureuse. »
Les nouvelles mesures annoncées seront introduites dans le cadre du projet de loi sur la criminalité et la police lorsqu’il sera présenté au Parlement dans les prochaines semaines.
Un rapport divulgué par le gouvernement britannique qualifie les inquiétudes concernant une « police à deux vitesses » d’extrémistes.
2–3 minutes
Ce que l’on appelle aujourd’hui la « police à deux vitesses » au Royaume-Uni – la pratique présumée consistant à traiter plus durement un groupe de manifestants que les autres, en fonction de leurs opinions politiques – a été rejetée dans un rapport du ministère de l’Intérieur comme étant « un discours d’extrême droite ».
Sans surprise, ceux dont divers politiciens, militants et médias disent depuis des années qu’ils sont désapprouvés par les autorités en raison de la manière dont leurs manifestations sont gérées, ont tout simplement été qualifiés d’« extrême droite ».
La « police à deux vitesses », qui suggère l’instauration délibérée de deux séries de règles pour un groupe de personnes exprimant publiquement leur mécontentement, a fait ses débuts lors des manifestations de BLM à l’époque du Covid, lorsque les forces de l’ordre britanniques ont été critiquées pour leur « politique de police laxiste ».
Et cela a culminé l’été dernier lorsque le traitement des manifestants après les tueries de Southport a été considéré comme excessivement dur, résumé par le propriétaire de X, Elon Musk, qualifiant le Premier ministre travailliste britannique Keir Starmer de « Keir à deux vitesses ».
Et maintenant, le cabinet de Starmer a été dévoilé pour avoir (comme on pouvait s’y attendre) minimisé et tenté de délégitimer les critiques de ce type , en les faisant croire qu’elles émanent de « l’extrême droite » – et cela se produit dans un rapport baptisé Rapid Analytical Sprint, que le cabinet actuel du Royaume-Uni a commandé afin de « cartographier les menaces extrémistes ».
Le rapport recommande au gouvernement de prêter moins d’attention aux menaces liées à l’islamisme – même si, au cours des 15 dernières années, 94 % des décès liés à des activités terroristes ont été commis par des islamistes.
Mais le document divulgué suggère que le gouvernement britannique devrait prêter davantage attention à d’autres « comportements préoccupants », la misogynie étant citée comme l’un d’entre eux.
Un autre point soulevé dans ces recommandations est de revenir sur la décision du gouvernement précédent d’enregistrer moins d’« incidents haineux non criminels » – même si cela aussi a été difficilement obtenu du cabinet conservateur.
Aujourd’hui, ce nouvel ensemble de mesures recommandées inquiète ses opposants, qui craignent qu’il n’entraîne une perte de capacité à attraper ceux qui représentent un réel danger pour la population, ou encore une suppression de la liberté d’expression.
« Cette nouvelle approche risque de submerger les intervenants de la lutte contre l’extrémisme et la police antiterroriste, déjà surchargés, avec des dizaines, voire des centaines de milliers de nouveaux cas, ce qui augmente le risque que des personnes dangereuses ne soient pas détectées », ont déclaré Paul Stott et Andrew Gilligan de Policy Exchange.
Ils ont ajouté que « certaines définitions de l’extrémisme menacent également la liberté d’expression et le débat politique légitime ».
Les autorités poussent les géants de la technologie à censurer le contenu, contournant ainsi les préoccupations concernant la liberté de la presse et la préservation des preuves.
2–3 minutes
Le gouvernement britannique continue d’utiliser les meurtres de Southport l’année dernière , qui ont conduit à des manifestations généralisées, pour promouvoir la censure en ligne, comme une prétendue panacée aux maux de la société.
La ministre de l’Intérieur Yvette Cooper et le secrétaire d’État à la Science, à l’Innovation et à la Technologie Peter Kyle ont récemment écrit à X, Meta, TikTok, Google (et YouTube) pour leur demander de supprimer le « matériel violent » auquel le tueur de trois enfants, Axel Rudakubana, a pu accéder avant de commettre son crime.
Les enquêteurs ont déclaré que parmi ces documents figuraient une étude universitaire d’un manuel de formation utilisé par les membres d’Al-Qaïda et une vidéo de l’attaque en Australie contre l’évêque Mari Emmanuel.
Cooper et Kyle ont déclaré aux entreprises technologiques que la « possession » de ce matériel est illégale selon la législation antiterroriste du Royaume-Uni, mais qu’il était « facilement accessible » à Rudakubana et continue de l’être à d’autres.
Les deux responsables ont également déclaré à ces entreprises que leur responsabilité de supprimer ce contenu était « morale ».
Le même argument a été avancé par la chancelière de l’Échiquier britannique Rachel Reeves, qui a déclaré à la BBC que même si la loi sur la censure – Online Safety Act – qui obligerait à supprimer ces contenus sera en vigueur à partir de mars, « rien n’empêche les entreprises de supprimer ces contenus dès maintenant. Elles ont la responsabilité morale de le faire. »
Aucun de ces responsables n’a cependant abordé la question des dangers liés à la suppression de vidéos montrant un contenu violent qui mérite d’être publié ou qui pourrait être utilisé comme preuve, par exemple, d’un abus de pouvoir de la police, d’une incapacité à réagir correctement lors d’événements violents, mais aussi pour les exonérer de fausses accusations (comme dans le cas récent de l’incident de l’aéroport de Manchester).
Beeban Kidron, connu pour être un partisan de la censure et de la vérification de l’âge en ligne et membre de la Chambre des Lords, s’est également exprimé au nom de la BBC pour se plaindre du fait que le précédent gouvernement conservateur avait bloqué la disposition de censure du « devoir de diligence » de l’Online Safety Act, et a reproché au cabinet travailliste actuel de « ne pas tenir les promesses qu’il avait faites dans l’opposition ».
Kidron a cependant omis de mentionner que le gouvernement précédent était, quel que soit le cas auquel elle faisait référence, très favorable à un renforcement de la censure en ligne.
Claire Fox, une autre membre de la Chambre des Lords, a réagi à la tendance à faire pression sur les plateformes pour qu’elles suppriment les « contenus extrêmes » ou « risquent un deuxième Southport » en quelques mots choisis publiés sur X :
« Il n’y a pas un seul problème – politique, culturel, économique, social – dont le gouvernement travailliste ne pense pas que la solution soit de mettre fin au débat. Leur mantra technocratique ennuyeux – qui ne cesse de se répéter – est « on ne peut pas dire ça ». Ce sont vraiment des scélérats macabres et censeurs. Méprisables. »
Un citoyen allemand a été condamné à une amende de 1 800 € pour avoir insulté un député du Parti vert sur X, soulignant les inquiétudes croissantes concernant les restrictions à la liberté d’expression et l’augmentation des poursuites pour critiques en ligne des politiciens en Allemagne
4–5 minutes
En Allemagne, un homme a été condamné à payer une amende de 1 800 € pour avoir prétendument insulté le député du Parti vert Janosch Dahmen, dans le dernier cas de citoyens allemands confrontés à des conséquences juridiques pour avoir critiqué des politiciens en ligne.
Un an après avoir publié un commentaire sur les réseaux sociaux, Daniel Kindl, originaire de Basse-Saxe, s’est vu infliger une sanction disciplinaire qui lui est parvenue de manière inattendue la semaine dernière.
L’accusation découle d’un message publié sur X par Kindl le 4 janvier 2024 en réponse aux inquiétudes de Dahmen concernant une prétendue agression contre le ministre de l’Économie Robert Habeck à Schlüttsiel. L’incident a ensuite été jugé exagéré, des rapports indiquant que les agriculteurs avaient simplement organisé une manifestation contre les politiques environnementales du gouvernement de gauche plutôt que de se livrer à la violence.
Dans son message, Dahmen a exprimé son désarroi face au climat politique qui règne dans un contexte de montée des troubles civils contre le gouvernement fédéral. « Je n’aime pas imaginer les inquiétudes de Robert Habeck pour sa famille et les autorités de sécurité face à de telles situations. De telles tentatives d’affirmation de soi par le volume et l’intimidation dans notre démocratie doivent cesser ! »
Kindl a répondu par « Heul leise, du Lappen, das ist erst der Anfang », ce qui se traduit approximativement par « Pleure doucement, espèce de chiffon, ce n’est que le début ».
Selon Dahmen et les procureurs, cela constituait une insulte et le politicien de gauche a déposé une plainte pénale officielle contre Kindl le 19 février 2024.
Kindl, qui réside dans un village près de Hanovre, a défendu ses propos, affirmant qu’ils visaient à exprimer les frustrations des citoyens ruraux face aux politiques gouvernementales qui impactent les agriculteurs.
« À l’époque, on savait déjà que l’attaque contre Habeck n’avait pas eu lieu comme le prétendaient les Verts. Les agriculteurs protestaient simplement et exprimaient leur mécontentement. Avec mon tweet, je voulais faire comprendre que nous, les citoyens ruraux, continuerons à nous opposer à toute politique hostile à l’avenir », a-t-il déclaré à Nius .
En décembre, plus de 10 mois après la publication de la publication, la police a contacté Kindl au sujet de l’affaire. Il a demandé une représentation juridique et s’est abstenu de faire une déclaration. Malgré la demande de son avocat de lui fournir les dossiers, aucun ne lui a été fourni avant que l’ordonnance de sanction ne soit émise. Kindl a juré de ne pas payer l’amende et a transmis l’affaire à son équipe juridique.
L’amende comprend 30 jours-amendes de 60 € chacun, plus 81 € de frais de justice.
Cette affaire s’inscrit dans une tendance croissante en Allemagne, où des citoyens ont été condamnés à des amendes, voire à des peines de prison, pour des propos dirigés contre des personnalités politiques.
Parmi les autres cas récents, celui d’un retraité allemand qui a été condamné à une amende de 800 euros pour avoir soumis un commentaire satirique sur la ministre des Affaires étrangères Annalena Baerbock via le formulaire de contact en ligne du ministère des Affaires étrangères, dans lequel il affirmait en plaisantant qu’elle s’était cognée la tête trop de fois contre un plafond en sautant sur un trampoline.
En novembre dernier, un autre retraité a été arrêté après avoir retweeté un mème du ministre de l’Économie verte Robert Habeck, qui le qualifiait d’« idiot ». L’affaire a été qualifiée de « crime d’extrême droite à motivation politique ».
Récemment, un ingénieur civil de Basse-Saxe a été condamné à 30 jours de prison pour ne pas avoir fait appel d’une amende qu’il avait reçue après avoir qualifié la députée SPD Manuela Schwesig de « conteuse » et l’avoir accusée de diffuser de fausses informations.
Les condamnations ne se limitent toutefois pas aux propos tenus contre des hommes politiques.
Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, en fonction de la quantité d’intervention humaine et de créativité utilisée dans chaque pièce.
1–2 minutes
Le Bureau américain des droits d’auteur a décidé mercredi que les artistes peuvent protéger par le droit d’auteur certaines œuvres créées à l’aide de l’intelligence artificielle (IA), à condition que la créativité humaine soit également impliquée.
Le rapport intervient alors que le bureau reçoit environ un demi-million de demandes de droits d’auteur par an et qu’il est de plus en plus souvent sollicité pour enregistrer des œuvres générées par l’IA, selon l’Associated Press .
Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, mais qu’il prendrait les décisions en examinant la quantité d’apport humain et de créativité utilisée dans chaque pièce.
« Le droit d’auteur s’est depuis longtemps adapté aux nouvelles technologies et peut permettre de déterminer au cas par cas si les résultats générés par l’IA reflètent une contribution humaine suffisante pour justifier la protection du droit d’auteur », peut-on lire dans le rapport. « L’utilisation d’une machine comme outil ne nie pas la protection du droit d’auteur, mais l’œuvre qui en résulte n’est protégée par le droit d’auteur que si elle contient suffisamment d’éléments expressifs créés par l’homme. »
Le rapport indique que les images entièrement générées par l’IA ne peuvent pas être protégées par le droit d’auteur, et que les personnes ne peuvent pas non plus protéger par le droit d’auteur les images ou les œuvres d’art qu’elles ont demandées à partir de boîtes de discussion ou de générateurs d’images d’IA, comme les modifications ou la fusion d’images préexistantes.
« Étendre la protection aux contenus dont les éléments expressifs sont déterminés par une machine… porterait atteinte aux objectifs constitutionnels du droit d’auteur plutôt que de les promouvoir », a déclaré dans un communiqué Shira Perlmutter, registraire des droits d’auteur et directrice du bureau américain du droit d’auteur.
Le Forum économique mondial s’est vanté du fait que la reconnaissance faciale discrète remplacera dans un avenir proche les identifiants numériques dans les villes intelligentes.
3–4 minutes
Lors de l’un des panels de la réunion annuelle du WEF la semaine dernière , le PDG d’Avathon, Pervinder Johar, a présenté sa vision d’un avenir dystopique de surveillance « optimisée » et omniprésente.
Infowars.com rapporte : Johar, bien sûr, ne le formulerait pas exactement de cette façon. Avathon, qui produit des technologies d’intelligence artificielle, notamment de surveillance, estime que dans les cinq à dix prochaines années, il n’y aura plus besoin d’identité numérique puisque la reconnaissance faciale « et d’autres choses » seront intégrées aux « villes intelligentes ».
Le panel était consacré à l’infrastructure publique numérique (IPN) – un mot à la mode utilisé par les partisans de l’identité numérique comme l’ONU, l’UE, le WEF et Bill Gates – et Johar a déclaré que les parties financières et identitaires de l’identité numérique « convergeront » pour produire le résultat qu’il a prédit.
Cela suggère que la population sera sous surveillance constante et identifiée à tout moment. Johar avait d’autres « bonnes nouvelles » : Avathon fabrique ce qu’il appelle une plateforme d’IA industrielle, un système de surveillance qui, selon le PDG, a été déployé au lycée Round Rock au Texas – « pour la sécurité des enfants ».
Il « utilise l’infrastructure de caméras existante d’une école pour détecter de manière proactive tout, d’une arme à une porte ouverte, un accès non autorisé ou même un incendie. »
Une autre intervenante, Hoda Al Khzaimi, vice-rectrice adjointe chargée de la traduction de la recherche et de l’entrepreneuriat à l’Université de New York à Abu Dhabi, a également évoqué le lien entre le DPI et les « villes intelligentes ».
« Les infrastructures publiques numériques sont apparues parce que les gouvernements veulent s’assurer qu’ils fournissent des services transparents dans l’essor des villes intelligentes », a déclaré Al Khzaimi, suggérant en même temps que « l’application optimale du DPI » impose l’identification numérique aux citoyens.
Al Khzaimi a également abordé la question des données DPI. « Ce qui est positif, c’est que si ces données fournies par l’infrastructure DPI sont ouvertes et que dans de nombreux types de scénarios, vous disposez de marchés ouverts pour ces données, les utilisateurs eux-mêmes peuvent inciter les gouvernements et les fournisseurs de ces services à leur dire ce qu’ils veulent et ce qu’ils ne veulent pas et à contrôler les tendances en matière de déploiement et de création de solutions », a-t-elle déclaré.
Al Khzaimi a également salué le partenariat public-privé sur le DPI. Et tout en reconnaissant le risque d’abus (« il ne faut pas soumettre les citoyens à des analyses de masse s’ils ne veulent pas de cette infrastructure d’analyse de masse »), elle s’est rapidement contredite en affirmant qu’il y a des cas où cela devrait être fait – comme pour « analyser les données démographiques en cas d’épidémies de pandémies ».
Le cofondateur et PDG de Kapital, Rene Saul, a parlé du passeport numérique du Mexique (qui utilise la vérification d’identité biométrique aux frontières – quelque chose que Saul n’a pas mentionné), dont il est titulaire, comme un exemple positif d’identité numérique.
Après tout, cela lui a fait gagner 35 minutes.
« Je suis arrivé en Europe pour la première fois et j’ai vu le panneau indiquant que trois autres pays avaient des passeports électroniques. J’ai donc gagné 35 minutes pour entrer en Europe alors qu’il m’en fallait une heure. C’est donc un bon exemple, et un autre bon exemple de cette technologie est qu’elle a ouvert nos frontières », a déclaré Saul.
La méthode KYC (Know Your Customer) a également été mentionnée comme étant utile pour développer des services numériques tels que ceux utilisés par les banques. KYC est en soi une forme invasive de vérification d’identité numérique qui intègre des analyses de documents et une vérification d’identité biométrique.
Les forces de l’ordre de Sheffield disent avoir voulu protéger la «fuyarde» et aussi les autres usagers de la route.
1–2 minutes
La fuyarde a réussi à échapper à ses poursuivants au moins trois fois…
La vidéo d’une très improbable course-poursuite entre une voiture de police et un fauteuil roulant a déjà été vue des millions de fois, et ce n’est certainement pas terminé.
La scène a été filmée à Sheffield, en Angleterre, le week-end dernier. On voit une voiture de patrouille prendre en chasse une femme sur un fauteuil roulant électrique, qui sort d’un parking et s’engage sur une route.
La suite? Par trois fois, en quelques secondes, la «fuyarde» échappe à ses poursuivants – en se faufilant entre le trottoir et la voiture de police qui tente de la bloquer, en contournant cette même voiture, puis en réussissant à lui filer devant le «nez»…
On ne voit pas la fin de la scène. Mais la femme en fauteuil roulant, 33 ans, a été arrêtée. Elle avait volé «des marchandises de grande valeur, qui ont été récupérées», selon la police du Yorkshire du Sud, rapporte la BBC.
Sur la course-poursuite, les forces de l’ordre ont expliqué que la fuyarde conduisait sa chaise roulante de «manière erratique» et que les policiers ont agi «par crainte pour sa propre sécurité et celle des autres usagers de la route».
«J’étais au travail lorsque j’ai entendu des sirènes et des cris», a de son côté témoigné celui qui a filmé la scène, Zindin Bekhouche, un étudiant en droit de 24 ans. «J’ai alors vu cette course-poursuite ridicule et j’ai décidé d’enregistrer, car je pensais que personne ne me croirait à moins que ce ne soit en vidéo.»
DeepSeek propose une IA générative open source avec un stockage de données localisé, mais soulève des inquiétudes concernant la censure, la confidentialité et la perturbation des marchés occidentaux.
5–7 minutes
Généré par IA
Une récente répression réglementaire aux États-Unis contre TikTok, une plateforme de médias sociaux détenue par des Chinois, a déclenché une vague de migration des utilisateurs vers une autre application chinoise, Rednote . Aujourd’hui, un autre acteur important est sous le feu des projecteurs : DeepSeek, une plateforme d’intelligence artificielle générative (IA) développée par la Chine, qui gagne rapidement du terrain. La popularité croissante de DeepSeek soulève des questions sur l’efficacité des interdictions comme celle de TikTok et leur capacité à limiter l’utilisation des services numériques chinois par les Américains.
Le président Donald Trump a attiré l’attention sur un récent développement de l’IA chinoise, le décrivant comme un « signal d’alarme » pour l’industrie technologique américaine.
S’adressant aux législateurs républicains en Floride lundi soir, le président a souligné la nécessité pour l’Amérique de renforcer son avantage concurrentiel face aux avancées technologiques de la Chine.
Lors de l’événement, Trump a fait référence au lancement de DeepSeek AI, soulignant ses implications potentielles pour le paysage technologique mondial. « La semaine dernière, j’ai signé un décret révoquant les réglementations destructrices de Joe Biden sur l’intelligence artificielle afin que les entreprises d’IA puissent à nouveau se concentrer sur le fait d’être les meilleures, et pas seulement les plus éveillées », a déclaré Trump. Il a poursuivi en expliquant qu’il avait suivi de près les développements du secteur technologique chinois, notamment les rapports sur une approche plus rapide et plus rentable de l’IA.
« C’est une bonne chose, car cela ne nécessite pas de dépenser autant d’argent », a fait remarquer M. Trump, ajoutant que même si les allégations concernant cette percée chinoise restent non vérifiées, l’idée d’obtenir des résultats similaires à moindre coût pourrait être considérée comme une opportunité pour les entreprises américaines. Il a souligné que « la sortie de DeepSeek AI par une entreprise chinoise devrait être un signal d’alarme pour nos industries, nous devons nous concentrer sur la compétition pour gagner, car nous avons les meilleurs scientifiques du monde. »
M. Trump a également souligné ce qu’il considère comme une reconnaissance par la Chine de la domination américaine en matière de talents scientifiques et d’ingénierie. « C’est très inhabituel, quand vous entendez parler de DeepSeek, quand vous entendez quelqu’un proposer quelque chose, nous avons toujours les idées », a-t-il déclaré. « Nous sommes toujours les premiers. Je dirais donc que c’est un élément positif qui pourrait constituer une évolution très positive. »
L’application DeepSeek a été lancée la semaine dernière.
DeepSeek, créé par un laboratoire de recherche chinois en IA soutenu par un fonds spéculatif, a fait sensation avec son modèle d’IA générative open source. La plateforme rivalise avec les offres des principaux développeurs américains, dont OpenAI. Pour contourner les sanctions américaines sur le matériel et les logiciels, l’entreprise aurait mis en œuvre des solutions innovantes lors du développement de ses modèles.
L’approche de DeepSeek sur les sujets sensibles soulève de sérieuses inquiétudes quant à la censure et à la manipulation de l’information. En reprenant les discours approuvés par l’État et en évitant les discussions sur des sujets politiquement sensibles comme la place Tiananmen ou l’association satirique de Winnie l’ourson avec Xi Jinping, DeepSeek illustre comment l’IA peut être utilisée pour renforcer les messages contrôlés par le gouvernement.
Cette présentation sélective des faits, ou leur omission pure et simple, prive les utilisateurs d’une compréhension plus complète des événements cruciaux et étouffe la diversité des points de vue. De telles pratiques non seulement limitent la libre circulation de l’information, mais normalisent également la propagande sous couvert de favoriser un « cyberespace sain », remettant en question les implications éthiques du déploiement d’une IA qui privilégie la conformité politique au détriment de la vérité et du dialogue ouvert.
Bien que DeepSeek propose plusieurs options pour accéder à ses modèles d’IA, y compris des versions locales téléchargeables, la plupart des utilisateurs s’appuient sur ses applications mobiles ou son interface de chat Web.
La plateforme propose des fonctionnalités telles que la réponse aux requêtes, les recherches sur le Web et les réponses raisonnées détaillées. Cependant, les inquiétudes concernant la confidentialité des données et la censure augmentent à mesure que DeepSeek collecte de nombreuses informations et a été observé en train de censurer des contenus critiques envers la Chine.
Les pratiques de DeepSeek en matière de données suscitent l’inquiétude des défenseurs de la vie privée. La politique de confidentialité de l’entreprise stipule explicitement : « Nous stockons les informations que nous collectons sur des serveurs sécurisés situés en République populaire de Chine. »
Cela inclut les données envoyées par les utilisateurs, telles que les messages de chat, les invites, les fichiers téléchargés et l’historique des conversations. Bien que les utilisateurs puissent supprimer l’historique des conversations via l’application, les experts en confidentialité soulignent les risques liés au partage d’informations sensibles avec de telles plateformes.
DeepSeek collecte également d’autres informations personnelles, telles que les adresses e-mail, les numéros de téléphone et les données des appareils, y compris les systèmes d’exploitation et les adresses IP. Il utilise des technologies de suivi, telles que les cookies, pour surveiller l’activité des utilisateurs. De plus, les interactions avec les annonceurs peuvent entraîner le partage d’identifiants mobiles et d’autres informations avec la plateforme. L’analyse de l’activité Web de DeepSeek a révélé des liens avec Baidu et d’autres sociétés d’infrastructure Internet chinoises.
Bien que de telles pratiques soient courantes dans le secteur de l’IA, les préoccupations en matière de confidentialité sont renforcées par le stockage des données de DeepSeek en Chine, où des lois strictes sur la cybersécurité permettent aux autorités d’exiger l’accès aux informations détenues par l’entreprise.
L’option la plus sûre consiste à exécuter des versions locales ou auto-hébergées des modèles d’IA, qui empêchent la transmission des données au développeur.
Et avec Deepseek, c’est simple car ses modèles sont open source.
L’IA open source se distingue comme l’approche supérieure de l’intelligence artificielle car elle favorise la transparence, la collaboration et l’accessibilité. Contrairement aux systèmes propriétaires, qui fonctionnent souvent comme des boîtes noires opaques, l’IA open source permet à quiconque d’examiner son code, garantissant ainsi la responsabilité et réduisant les biais. Cette transparence renforce la confiance, tandis que la nature collaborative du développement open source accélère l’innovation en permettant aux chercheurs et aux développeurs du monde entier de contribuer aux modèles existants et de les améliorer.
De plus, l’IA open source démocratise l’accès aux technologies de pointe, permettant aux startups, aux chercheurs et aux régions sous-financées d’exploiter le potentiel de l’IA sans les barrières financières des systèmes propriétaires.
Il empêche également le contrôle monopolistique en décentralisant le développement de l’IA, réduisant ainsi la domination de quelques géants de la technologie.
La police française a annoncé lundi l’arrestation de 37 personnes à la suite d’une vaste opération anti-pornographie infantile dans les régions Bourgogne-Franche-Comté et Grand Est.
1–2 minutes
Généré par IA
Selon le journal français La Dépêche , l’opération, qui a débuté en novembre, a permis de saisir plus d’un million de fichiers photos et vidéos de pornographie infantile sur des ordinateurs, des tablettes, des smartphones et même des appareils photo.
Lors de quatre opérations menées dans les départements de Bourgogne-Franche-Comté et du Grand Est, des armes et des stupéfiants ont également été découverts par les forces de l’ordre.
La Gendarmerie nationale, une force de police française chargée, entre autres, de lutter contre la cybercriminalité, a déclaré que 32 des 37 suspects ont déjà été condamnés.
Tous les suspects ont été accusés d’avoir « diffusé ou téléchargé des vidéos et des images à caractère pédopornographique ».
Au total, 270 gendarmes, dont 36 enquêteurs spécialisés en cybercriminalité, ont participé aux perquisitions.
Une opération similaire avait été menée en mars 2023, lorsque 17 personnes avaient été interpellées, soupçonnées de téléchargement et de diffusion de matériel pédopornographique dans la région Grand Est.
Plus récemment, une opération internationale a conduit à l’arrestation de 95 personnes en France en décembre, en lien avec un réseau transfrontalier de pornographie infantile.
La police a saisi des centaines d’appareils contenant environ 375 000 photos et 156 000 vidéos de pornographie juvénile, soit environ 217 téraoctets de données.
Parmi les personnes arrêtées le mois dernier figuraient un directeur d’organisation de jeunesse, un instructeur sportif et un maire adjoint.
L’année dernière, la France a durci les sanctions pour l’hébergement de contenu pédopornographique sur Internet. La loi sur la sécurité et la régulation de l’espace numérique (SREN) impose aux sites Internet de supprimer les contenus pédopornographiques dans les 24 heures suivant leur notification par la police ou la gendarmerie, sous peine d’un an de prison et d’une amende de 250 000 euros.
Le système de paiement biométrique russe renforce les inquiétudes concernant la surveillance et la sécurité des données.
2–3 minutes
Généré par IA
La Russie se prépare à lancer d’ici 2025 un système complet de paiement par reconnaissance faciale, dans le but de créer l’un des plus grands réseaux de paiement biométrique au monde. Cette initiative s’appuiera sur la plateforme Face Pay existante, qui a été progressivement mise en œuvre depuis 2021 et est le fruit d’un effort conjoint de la Sberbank et du National Payment Card System (NSPK). Pour soutenir le déploiement, environ deux millions de terminaux de paiement biométriques devraient être installés dans tout le pays.
Le projet devrait débuter avec un déploiement initial dans le métro de Moscou en 2024. Face Pay , déjà utilisé dans le métro de Moscou et dans plusieurs autres villes comme Kazan et Nijni Novgorod, permet aux usagers d’effectuer des paiements en scannant leur visage. D’ici le second semestre 2025, le système s’étendra à tout le pays, permettant aux utilisateurs d’enregistrer leurs données biométriques via leurs applications bancaires et d’effectuer des paiements sur n’importe quel terminal, quelle que soit leur banque.
Dmitry Malykh, vice-président senior de Sber, a confirmé le calendrier en déclarant : « La feuille de route du projet a déjà été établie et le lancement du réseau est prévu pour le second semestre 2025. Nous développons une norme de paiement biométrique, sur la base de laquelle d’autres acteurs du marché pourront lancer leurs services biométriques. »
Cette initiative sera également intégrée au système biométrique unifié russe (UBS), une base de données gérée par l’État qui centralise les données biométriques à des fins d’identification et d’authentification. Depuis 2022, les banques publiques sont tenues de transférer les informations biométriques de leurs clients à ce système. Cependant, l’adoption par les utilisateurs est lente, la base de données UBS n’ayant pas encore dépassé les trois millions d’utilisateurs, ce qui reflète la résistance du public et les préoccupations potentielles en matière de confidentialité.
Le gouvernement envisage ce système comme bien plus qu’une simple plateforme de paiement. Parmi les fonctionnalités prévues figurent la vérification de l’âge des utilisateurs pour les achats restreints et l’enregistrement sans contact dans les hôtels.
Il est également prévu de prendre en charge des méthodes de paiement alternatives, notamment les transactions en cryptomonnaie, rendant ainsi la plateforme adaptable aux technologies financières émergentes.
De nombreuses personnes s’inquiètent de la double utilisation du système, la technologie de reconnaissance faciale ayant déjà été utilisée pour aider les forces de l’ordre à traquer les dissidents politiques. Bien que commercialisée comme un outil pratique, son intégration dans les réseaux de surveillance met en évidence des risques importants pour la vie privée.
Une fois entièrement déployé, ce système permettra aux particuliers d’effectuer des paiements par reconnaissance faciale de manière transparente entre différentes banques, marquant ainsi l’étape la plus ambitieuse dans la démarche de la Russie vers une infrastructure financière basée sur la biométrie
Une influenceuse des médias sociaux accusée d’avoir filmé la torture de son bébé pour gagner de l’argent et des clics, aurait fabriqué des symptômes poussant l’enfant à subir une opération au cerveau, a entendu un magistrat.
3–5 minutes
Une image du service de police du Queensland montre l’accusé arrêté le 16 janvier. Avec l’aimable autorisation du service de police du Queensland
Une influenceuse des médias sociaux accusée d’avoir filmé la torture de son bébé pour gagner de l’argent et des clics, aurait fabriqué des symptômes poussant l’enfant à subir une opération au cerveau, a entendu un magistrat.
La femme de 34 ans, dont l’identité ne peut être révélée pour des raisons juridiques, a demandé une libération sous caution au tribunal de Brisbane mardi.
Elle est apparue en personne, vêtue d’une robe bleu clair et de sandales à lanières de cuir, sous la surveillance de deux gardes des services correctionnels.
La femme était assise, les mains sur les genoux, faisant face directement au magistrat alors qu’elle était confinée au banc des accusés.
La police du Queensland accuse la femme d’avoir donné à son enfant d’un an des médicaments sur ordonnance et en pharmacie non autorisés entre août et octobre 2024 pour développer son profil sur les réseaux sociaux et gagner 60 000 $ de dons.
Le procureur de la Couronne, Jack Scott, s’est opposé à la libération sous caution et a déclaré au magistrat Stephen Courtney que la femme avait déplacé une caméra vidéo qui surveillait l’enfant pendant un test d’activité cérébrale « pour éviter d’être détectée ».
La femme était assise, les mains sur les genoux, faisant face directement au magistrat alors qu’elle était confinée au banc des accusés.
La police du Queensland accuse la femme d’avoir donné à son enfant d’un an des médicaments sur ordonnance et en pharmacie non autorisés entre août et octobre 2024 pour développer son profil sur les réseaux sociaux et gagner 60 000 $ de dons.
Le procureur de la Couronne, Jack Scott, s’est opposé à la libération sous caution et a déclaré au magistrat Stephen Courtney que la femme avait déplacé une caméra vidéo qui surveillait l’enfant pendant un test d’activité cérébrale « pour éviter d’être détectée ».
« Elle a été filmée avec une seringue. Elle a administré le médicament par sonde nasogastrique. Elle a profité de l’occasion pour se cacher sous une couverture », a déclaré Scott.
« Environ 30 à 40 minutes après cet incident, (l’enfant) était complètement inconscient. »
La femme a été placée en détention provisoire lors de sa première comparution devant le tribunal le 17 janvier après son arrestation dans une banlieue au sud de Brisbane.
La femme a été accusée d’avoir administré du poison avec l’intention de nuire, de quatre chefs d’accusation d’administration de poison avec l’intention de nuire et de mettre en danger la vie d’autrui, de fabrication de matériel d’exploitation d’enfants, de trois chefs d’accusation de préparation en vue de commettre des crimes et de torture.
Scott a déclaré que l’accusation de matériel d’exploitation d’enfants était liée à des vidéos prétendument trouvées sur le téléphone de la femme et qu’elle avait causé des complications mettant sa vie en danger.
« Cet enfant n’aurait pas dû subir (deux séries d’opérations chirurgicales du cerveau) à ce stade sans cette fabrication de symptômes », a déclaré le procureur.
L’avocat de la défense Mathew Cuskelly a fait valoir que son client n’avait jamais été reconnu coupable d’aucun crime et qu’il était confronté à un procès qui pourrait durer deux ou trois ans.
Cuskelly a déclaré que le dossier de l’accusation pouvait paraître solide, mais qu’une enquête plus approfondie pourrait démontrer le contraire.
« Les risques peuvent être suffisamment atténués », a-t-il déclaré à propos des conditions de mise en liberté sous caution.
Le magistrat a déclaré que l’enfant avait été diagnostiqué avec des tumeurs bénignes dans plusieurs organes et avait commencé à souffrir de crises d’épilepsie.
« L’avis médical a suspecté que le médicament prescrit déclenchait des crises. Le traitement a été arrêté », a déclaré Courtney.
« La (femme) avait toujours une ordonnance… le médicament était toujours présent dans son organisme avec d’autres drogues. »
Cuskelly a déclaré qu’un courriel des autorités sanitaires indiquait que l’enfant « continue de présenter des symptômes » de convulsions.
Courtney a déclaré qu’il ne serait pas en mesure de prendre une décision mardi en raison de la complexité des allégations.
« La mise en liberté sous caution est normalement une affaire simple. Ce n’est pas le cas », a-t-il déclaré.
La demande de mise en liberté sous caution a été ajournée à mercredi.
Bill Gates a ouvertement critiqué son collègue milliardaire de la technologie Elon Musk pour son implication dans la promotion de la politique conservatrice aux États-Unis et des partis souverainistes en Europe. Gates a fustigé Musk pour la « merde insensée » qu’il ose soutenir en opposition directe avec le programme mondialiste extrême de Gates.
2–3 minutes
Généré par IA
Dans une interview au Times de Londres , Bill Gates, cofondateur de Microsoft, harceleur sexuel au sein des entreprises et militant d’extrême gauche , a exprimé ses inquiétudes quant à l’influence d’Elon Musk sur la politique de plusieurs pays. Gates a qualifié les actions d’Elon Musk de « dingues », soulignant la nécessité pour les pays d’adopter des mesures de protection pour empêcher les étrangers fortunés d’interférer dans leurs élections.
« C’est vraiment insensé qu’il puisse déstabiliser la situation politique dans certains pays », a déclaré Gates au journal. « Je pense qu’aux États-Unis, les étrangers ne sont pas autorisés à donner de l’argent ; d’autres pays devraient peut-être adopter des mesures de protection pour s’assurer que les étrangers super riches ne faussent pas leurs élections. » Il convient de noter que Gates n’a jamais critiqué les actions du milliardaire de gauche George Soros, qui a faussé les élections aux États-Unis.
Elon Musk, qui fait désormais partie du cercle intime du président Donald Trump et aurait dépensé plus de 250 millions de dollars pour sa campagne, a également fait part de ses opinions politiques dans d’autres pays. Il a critiqué le Premier ministre britannique Keir Starmer et le parti travailliste de centre-gauche, tout en prodiguant des conseils au parti de droite Reform UK, en leur suggérant de remplacer le leader Nigel Farage.
De plus, Elon Musk s’est récemment adressé à distance au parti d’extrême droite allemand Alternative pour l’Allemagne (AfD), les encourageant à « être fiers de l’Allemagne » et à ne pas se sentir coupables des actions de leurs ancêtres. Gates a qualifié les actions d’Elon Musk de « propagande populiste » et a exprimé sa désapprobation en déclarant : « Vous voulez promouvoir l’aile droite mais vous dites que Nigel Farage n’est pas assez à droite… Je veux dire, c’est de la folie. Vous êtes pour l’AfD [en Allemagne] ».
Au cours de l’entretien, Gates a également partagé des détails sur un dîner de trois heures qu’il a eu avec le président Trump à Mar-a-Lago le mois dernier. Il a décrit la conversation comme « assez intéressante », notant que Trump avait écouté attentivement Gates discuter de sujets tels que le VIH, la nécessité d’une générosité continue, l’innovation dans la recherche d’un remède, la polio, l’énergie et l’énergie nucléaire. Gates a mentionné que Trump « n’a pas été dédaigneux » pendant leur discussion, qualifiant la rencontre de « plutôt constructive ».
Selon une nouvelle enquête du Washington Post , la police de tout le pays utilise abusivement les logiciels de reconnaissance faciale, s’appuyant sur eux pour arrêter des suspects sans preuves supplémentaires.
2–3 minutes
Généré par IA
La plupart des services de police ne sont pas tenus de divulguer ou de documenter son utilisation. Parmi les 23 services de police disposant de dossiers, 15 dans 12 États ont arrêté des suspects uniquement sur la base de correspondances obtenues par IA, violant souvent les politiques internes exigeant une corroboration.
Un rapport a qualifié de « correspondance à 100 % » une correspondance non vérifiée obtenue par l’IA, tandis qu’un autre a affirmé que la technologie avait « incontestablement » identifié un suspect. Au moins huit personnes ont été arrêtées à tort aux États-Unis en raison de correspondances obtenues par l’IA, dont deux n’avaient pas été signalées auparavant.
Toutes les affaires ont été classées sans suite, mais des mesures policières de base, comme la vérification des alibis ou la comparaison des preuves matérielles, auraient pu empêcher ces arrestations. L’ampleur réelle des fausses arrestations alimentées par l’IA reste inconnue, car la plupart des services de police n’ont pas d’obligations de divulgation et révèlent rarement l’utilisation de l’IA.
Le Post a identifié 75 services utilisant la reconnaissance faciale, et les enregistrements de 40 d’entre eux montrent que les arrestations sont liées à des correspondances obtenues par l’IA. Parmi ceux-ci, 23 ont fourni suffisamment de détails, révélant que près des deux tiers ont procédé à des arrestations sans preuve corroborante. Les services ont souvent refusé de discuter de leurs pratiques ou ont affirmé que les agents s’appuyaient sur leur jugement visuel pour confirmer les correspondances.
À Florence, dans le Kentucky, la police a eu recours à des correspondances non corroborées par l’IA dans au moins quatre cas, avec des résultats mitigés. Le procureur local Louis Kelly a défendu le jugement des policiers dans l’identification des suspects, y compris ceux signalés par l’IA.
Pour son rapport, le Washington Post a examiné l’utilisation de la reconnaissance faciale par 75 services de police, avec des enregistrements détaillés de 23 d’entre eux. Il a découvert que 15 services, dont Austin, Detroit et Miami, ont procédé à des arrestations uniquement sur la base de correspondances IA sans preuves indépendantes.
Certaines affaires n’étaient pas documentées ou transparentes, tandis que d’autres s’appuyaient sur des pratiques douteuses, comme la présentation de photos identifiées par l’IA à des témoins. Les entretiens ont permis de clarifier certains cas, mais le recours à l’IA non corroborée reste répandu.
Lors du Forum économique mondial (WEF), le Premier ministre espagnol Pedro Sánchez a dévoilé une proposition visant à éliminer l’anonymat sur les réseaux sociaux en reliant les comptes des utilisateurs à un portefeuille d’identité numérique européen. Cette annonce a suscité une vive réaction de la part des défenseurs de la liberté d’expression et des détracteurs de la régulation numérique centralisée.
2–4 minutes
Généré par IA
La proposition de Sánchez : la fin de l’anonymat
Dans son discours, Sánchez a expliqué que l’activité anonyme sur les réseaux sociaux favorise la diffusion de « désinformation », de « discours de haine » et de cyberharcèlement, ainsi que la prolifération de robots. Comparant l’anonymat au port du masque dans la rue ou à la conduite sans plaque d’immatriculation, Sánchez a déclaré :
« Une telle anomalie ne peut pas perdurer dans une démocratie. Les citoyens ont droit à la vie privée, pas à l’anonymat ni à l’impunité. »
Sánchez a présenté un plan dans lequel les plateformes de réseaux sociaux exigeraient que chaque utilisateur associe son compte à une véritable identité numérique. Si les pseudonymes pourraient toujours être utilisés publiquement, les autorités auraient accès aux véritables identités qui se cachent derrière les comptes en ligne. Il a également proposé une plus grande transparence des algorithmes des réseaux sociaux, exigeant ce qu’il a appelé « l’ouverture de la boîte noire ».
Les critiques tirent la sonnette d’alarme
Cette proposition a été vivement critiquée dans toute l’Europe. L’ancien député européen Rob Roos a décrit le WEF comme une réunion de « politiciens corrompus, d’élites et d’entreprises » conspirant pour priver les citoyens de leurs droits fondamentaux.
« C’est un danger pour la démocratie ! », a averti Roos, soulignant que de telles mesures pourraient conduire à un contrôle oppressif du discours en ligne.
Le journaliste néerlandais Eric van de Beek a accusé Sánchez et d’autres dirigeants du WEF de chercher à placer les citoyens « dans une chaîne numérique », avertissant que ces politiques pourraient rendre l’accès à Internet subordonné à la connexion avec une carte d’identité numérique européenne (eID). Beaucoup pensent qu’une réglementation excessive d’Internet détruirait l’un des derniers bastions de la liberté d’expression en Occident.
Les implications plus larges
Les critiques affirment que la proposition de Sánchez, loin de favoriser la responsabilisation, donnerait aux gouvernements des pouvoirs considérables pour surveiller et faire taire les dissidents. Ils soutiennent que le fait de lier les identifiants numériques aux comptes de médias sociaux porterait atteinte à la vie privée et permettrait de criminaliser des propos légaux en vertu de définitions vagues et subjectives de « désinformation » ou de « discours de haine ».
Le débat autour de la proposition de Sánchez met en évidence les tensions croissantes entre ceux qui prônent une réglementation plus stricte d’Internet pour lutter contre les atteintes à la vie privée et ceux qui défendent l’anonymat comme essentiel à la liberté d’expression et à la vie privée. Alors que Sánchez insiste sur le fait que son projet complète la liberté d’expression en garantissant la responsabilité, ses opposants le considèrent comme une mesure autoritaire qui met en péril les libertés fondamentales.
Alors que le Forum économique mondial (WEF) continue d’accueillir des discussions sur la régulation numérique, la proposition controversée de Sánchez a déclenché un débat plus vaste sur l’avenir de la liberté en ligne en Europe et au-delà. Pour beaucoup, la perspective d’une société sous surveillance numérique suscite des inquiétudes quant aux États de surveillance, et les critiques s’engagent à combattre de telles mesures pour défendre les valeurs démocratiques.
Les documents internes de PayPal révèlent un processus décisionnel politiquement chargé derrière les fermetures de comptes à l’ère du Covid.
2–3 minutes
Généré par IA
Cela semblait assez évident au moment où cela se produisait, mais il semble désormais y avoir la preuve que PayPal punissait les utilisateurs pour leurs discours de l’ère Covid qui ne correspondaient pas aux récits officiels.
L’une des critiques des mandats liés à la pandémie qui ont été « débancarisés » est la fondatrice d’UsForThem, Molly Kingsley, à qui PayPal a dit que son compte avait été gelé parce qu’il était utilisé pour recevoir des dons, ce qui s’est avéré être en dehors des règles d’« utilisation acceptable » du géant des paiements.
Le groupe de parents et Kingsley ont vivement critiqué la vaccination obligatoire des enfants contre le Covid, les obligeant à porter des masques faciaux, ainsi que la fermeture des écoles.
Et maintenant PayPal a tout dit. Le Telegraph a rapporté que le compte avait été fermé en raison de « contenus publiés par UsForThem concernant les vaccinations obligatoires contre le Covid-19 et les fermetures d’écoles ».
PayPal a dû rétablir le compte moins d’un mois après sa fermeture en septembre 2022, en raison de l’intervention du régulateur financier britannique FCA. Ce n’était pas le seul compte visé, il appartenait à des groupes et à des individus opposés aux restrictions liées au Covid, mais lorsqu’ils ont été fermés, PayPal a choisi de ne pas expliquer officiellement pourquoi.
Parmi les personnes concernées figuraient Toby Young, un défenseur de la liberté d’expression dont le blog Daily Skeptic critiquait les mandats Covid, ainsi que des avocats réunis dans le groupe Law or Fiction qui partageaient des points de vue similaires et ont déclaré que les priver de l’accès à leur argent sur PayPal était une « attaque flagrante contre la liberté d’expression » à la chinoise.
Les informations que PayPal a dévoilées concernant UsForThem et Kingsley ont été révélées dans des documents de la phase préalable à l’action (juridique), qui montrent également que la société a passé quatre mois avant le gel des comptes de septembre 2022 à constituer « un dossier d’informations sur Kingsley ».
Ce dossier comprenait des citations de son livre, The Children’s Inquiry. À la même époque, l’unité britannique de lutte contre la désinformation, connue pour tenter de réprimer les discours sur le confinement qui divergeaient de la ligne officielle, surveillait l’activité de Kingsley sur les réseaux sociaux.
PayPal refuse désormais de commenter ce qu’il appelle les « comptes clients individuels », mais l’entreprise affirme que son approche est objective et non motivée par des considérations politiques.
Cependant, Kingsley estime que PayPal « semble avoir admis ce que nous soupçonnions depuis le début : qu’il se livrait à des opérations de déblocage de comptes à motivation politique contre ceux d’entre nous qui critiquaient la réponse du gouvernement au Covid, et le discours sur le confinement en particulier. »
« Depuis plus de deux ans, PayPal résiste à mes efforts pour découvrir ce qui s’est passé », a ajouté le militant.
Quand j’étais plus jeune, j’ai envisagé la possibilité que le gouvernement cache des histoires folles et fantastiques, comme celle d’un vaisseau spatial retrouvé à Roswell ! Ou même d’un corps extraterrestre !
3–5 minutes
Généré par IA
Mais après tout le scandale Bill Clinton-Monica Lewinsky, j’ai changé d’avis : je me suis dit que si le président et un stagiaire de bas niveau ne pouvaient même pas cacher un [CENSURÉ] sans appels téléphoniques enregistrés secrètement, robes tachées et un milliard de fuites dans les médias, la probabilité qu’une conspiration impliquant des centaines de personnes – s’étalant sur des décennies à la fois – reste non découverte est pratiquement inexistante.
Comme l’a noté Benjamin Franklin : « Trois personnes peuvent garder un secret si deux d’entre elles sont mortes. »
Mais récemment, j’ai reconsidéré mes désaveux antérieurs. Comment ne pas le faire ? Pendant quatre longues années, on nous a répété que Joe Biden était « aussi vif qu’un clou ». On nous a répété cette histoire encore et encore, jusqu’à ce que Biden monte sur scène pour débattre avec Trump et se révèle sous nos yeux comme invalide.
Et avant ça ?
On nous a dit que Trump était un agent secret russe. (Ce n’était pas le cas.) On nous a dit qu’il avait uriné sur un lit avec des prostituées. (Ce n’était pas le cas.) On nous a dit que l’ordinateur portable de Hunter Biden était de la désinformation russe. (Ce n’était pas le cas.) On nous a dit que la « Bidennomics » était la plus grande reprise économique de l’histoire. (Pas du tout.) On nous a dit que la frontière était sécurisée. ( De rien, José ! ) On nous a dit que le COVID n’avait absolument rien à voir avec une fuite d’un laboratoire chinois. (Hum ?) Il y a eu tellement de mensonges et d’exagérations du gouvernement et des médias à propos du COVID que les énumérer tous nécessiterait une colonne séparée !
Alors peut-être ne devrions-nous pas être trop hâtifs en rejetant toutes les conspirations, hein ?
Et cela nous amène à nos milliardaires technophiles qui ont (agréablement) surpris le mouvement conservateur avec leur soutien enthousiaste et bruyant à Donald Trump : Elon Musk, Mark Zuckerberg, Jeff Bezos et d’autres ont assisté à l’investiture de Trump, ont visité la Maison Blanche et ont promis leur loyauté.
Même les milliardaires de la technologie comme Sam Altman (PDG d’OpenAI) — autrefois un libéral loyal et partisan de Biden, membre de la communauté LGBTQ — se sont joints à la fête :
Et tandis que les conservateurs applaudissent avec reconnaissance, les amis et voisins des milliardaires à Martha’s Vineyard, dans la Silicon Valley et à Beverly Hills (où que ce soit qui n’ait pas brûlé) ne sont pas aussi ravis. Ils sont énervés ! Ils ont vraiment, vraiment cru que Trump était un nazi.
Mais les techniciens ont quand même cédé.
De plus, les PDG milliardaires ne sont pas vraiment réputés pour leur flexibilité. Ce ne sont pas le genre de personnes qui admettent souvent qu’elles ont tort. Au contraire, ils sont têtus à l’extrême.
Et pourtant, ils se sont tous rassemblés autour du « fasciste » Donald Trump, ont admis qu’ils avaient tort et promettent désormais leur soutien indéfectible ?
Cela semble un peu contre-intuitif, n’est-ce pas ?
Ce sont des milliardaires qui veulent devenir des trillionnaires. Quel est leur véritable objectif ?
Voici une théorie : ils sont à la recherche du plus grand trésor de l’histoire de l’humanité. Et les oligarques sont déterminés à le contrôler et à le monétiser.
Le prix est l’intelligence artificielle.
Cette technologie est extrêmement coûteuse. Elle nécessite de vastes réservoirs d’eau, soit des quantités d’énergie absolument invraisemblables. Et malgré toutes leurs richesses respectives, aucun milliardaire ne peut financer tout cela à lui seul. L’infrastructure elle-même l’en empêche.
Ces milliardaires misent tout sur l’IA. Ils investissent des milliards pour gagner des milliers de milliards. Il me semble que le chemin le plus court vers la superintelligence est de soutenir un candidat comme Trump, de lui demander de financer et d’alimenter votre infrastructure d’IA, puis d’écrire les règles et réglementations de telle manière que vous (et vos collègues oligarques) contrôliez exclusivement la technologie.
Bien sûr, il est tout à fait possible que les conversions MAGA des technophiles soient toutes authentiques. Peut-être qu’après tout ce temps, ils ont enfin vu la lumière.
Droite?
Mais il est aussi possible que tout cela ne soit qu’une arnaque.
Comme je l’ai dit, ce n’est qu’une théorie. Mais cela vaut probablement la peine d’y réfléchir.
Les législateurs de l’UE font pression pour que de nouveaux outils de censure soient mis en place contre le X d’Elon Musk, tandis que d’autres le saluent comme un champion de la liberté d’expression.
2–3 minutes
Généré par IA
Les hommes politiques de l’Union européenne (UE) siégeant au Parlement européen (PE), qui sont manifestement alignés et alliés à l’administration américaine sortante, continuent de se contorsionner en bretzel en essayant de dépeindre X, et son propriétaire Elon Musk lui-même, comme une « menace émergente ».
D’un côté, il y a X, seule grande plateforme sociale mondiale qui met clairement l’accent sur la liberté d’expression, et de l’autre, il y a l’implication de Musk dans la nouvelle administration Trump.
Cela expliquerait pourquoi certains y voient des « menaces » – et aucun discours sur l’émergence d’une menace n’est complet sans propositions sur la manière de la combattre. L’une d’entre elles vient de la vice-présidente de la commission des affaires étrangères du Parlement européen, Hana Jalloul Muro, qui souhaite voir le développement de « nouveaux outils ».
Muro est membre de l’Alliance progressiste des socialistes et démocrates (S&D), mais des membres du Parlement européen, des députés européens d’autres tendances conservatrices, ont également décidé de faire entendre leur voix, en grande partie à l’éloge du propriétaire de X.
Cela s’annonce comme une affaire typiquement européenne, avec des responsables engagés dans des échanges au sein du bloc et, dans ce cas, s’écrivant des lettres – tout en discutant de Musk.
La lettre de Muro, qui a recueilli le soutien de 45 députés européens, est adressée à la Haute Représentante de l’UE pour les affaires étrangères et la politique de sécurité, Kaja Kallas, et réitère la vieille rhétorique selon laquelle les plateformes en ligne menacent potentiellement les élections dans l’UE « et au-delà » au moyen d’une influence indue.
Muro aimerait donc que Kallas s’emploie à imposer davantage de sanctions contre ceux qui sont considérés comme exerçant cette influence – et il s’agirait là de « menaces existantes ». Quant aux menaces « émergentes », il s’agit de X et Musk, et l’UE a besoin de « nouveaux outils » pour y faire face, écrit Muro.
Deux députés de moins – 43 – ont signé une lettre « rivale », envoyée cette fois à la présidente du PE Roberta Metsola, qui souhaiterait voir Musk s’exprimer en séance plénière comme un pionnier de la révolution numérique dont la présence, estiment les signataires, favoriserait la « revitalisation » de la compétitivité de l’UE dans le monde.
Une autre lettre est en préparation, et elle sera envoyée au Comité Nobel norvégien, nommant Elon Musk pour le prix Nobel de la paix de cette année.
Laisser un commentaire