L’Assemblée a examiné et rejeté une première motion de La France insoumise (LFI), appuyée par les communistes et les écologistes.
1–2 minutes
Le Premier ministre François Bayrou a échappé mercredi à une motion de censure sur le budget de la France, qui a été adopté à l’Assemblée nationale. Il a bénéficié de la neutralité des socialistes.
L’Assemblée a examiné et rejeté une première motion du parti de la gauche radicale La France insoumise (LFI), appuyée par les communistes et les écologistes, contre la décision de François Bayrou de faire passer sans vote le projet de budget de l’État pour 2025, en engageant sa responsabilité.
Seuls 128 députés ont approuvé la motion de censure, alors qu’il aurait fallu 289 voix pour faire tomber le gouvernement.
Le vote de mercredi a permis l’approbation par l’Assemblée nationale du budget de l’État pour 2025. Le Sénat (chambre haute) se prononcera dès jeudi, et ce vote très vraisemblablement favorable actera l’adoption du texte par le Parlement français.
Deuxième censure en soirée
À la fin de cette journée chargée, François Bayrou devrait engager une nouvelle fois la responsabilité de son gouvernement par un autre 49.3, puis encore un autre en fin de semaine ou en début de semaine prochaine, toujours sur le budget de la Sécurité sociale.
Avec donc au total, quatre motions de censures à esquiver sur le budget.
Le projet de loi de Hawley suscite des inquiétudes quant à la liberté d’expression et prévoit des sanctions sévères pour l’utilisation de l’IA.
2–3 minutes
Le sénateur américain Josh Hawley cherche à étendre la « guerre technologique » sino-américaine à un autre front : l’intelligence artificielle. Cette initiative a apparemment été déclenchée par le lancement du modèle d’intelligence artificielle chinois DeepSeek, qui est devenu très populaire en peu de temps.
Hawley, un républicain, a réagi en présentant le projet de loi visant à découpler les capacités d’intelligence artificielle de l’Amérique de la Chine. Jusqu’à 20 ans de prison et de lourdes amendes pour ceux qui téléchargent « volontairement » DeepSeek figurent parmi les possibilités les plus frappantes découlant de la formulation du projet de loi.
Nous avons obtenu une copie de la facture pour vous ici .
Certains observateurs interprètent ici le terme « volontairement » comme signifiant qu’une personne a non seulement téléchargé DeepSeek, mais qu’elle sait également qu’il s’agit d’une application chinoise, ce qui devrait alors être prouvé devant un tribunal – si la proposition de Hawley devenait loi.
Cela pourrait toutefois également affecter, par exemple, Hugging Face, une entreprise américaine qui donne accès aux entreprises au code utilisé pour évaluer les modèles d’apprentissage automatique, ainsi que les fournisseurs de cloud, qui pourraient ne plus être en mesure d’héberger des modèles ou des applications chinoises.
Hawley a expliqué son effort législatif par la nécessité de garantir la « supériorité économique » des États-Unis, ce qui nécessite d’empêcher l’argent et les données de circuler vers les produits chinois et de « couper la Chine de l’ingéniosité américaine », mais aussi de mettre un terme à ce qu’il appelle « le subventionnement de l’innovation du PCC (Parti communiste chinois) ».
L’annonce de Hawley mentionne le nom de DeepSeek, le décrivant comme un modèle de collecte de données à faible coût qui a suscité une « inquiétude internationale » – mais qui a également fait « chuter » les actions technologiques américaines.
Les principaux objectifs du projet de loi sont d’interdire à la fois l’exportation de technologies d’IA vers la Chine et l’importation vers les États-Unis ; d’interdire aux entreprises américaines de coopérer avec des entreprises chinoises pour effectuer des recherches sur l’IA dans ce pays ; et d’interdire aux entreprises américaines d’investir dans le développement de l’IA chinoise.
Le projet de loi cite la loi de réforme du contrôle des exportations de 2018 comme base juridique et menace également d’amendes pouvant aller jusqu’à 1 million de dollars et/ou d’une peine de prison pouvant aller jusqu’à 20 ans les personnes qui violent « volontairement » ladite interdiction.
Les premiers critiques du projet de loi soulignent qu’il aurait un impact négatif sur la recherche scientifique publique en dressant des barrières entre les informaticiens des deux pays.
Les entreprises qui enfreignent l’interdiction de la recherche américano-chinoise pourraient être punies d’amendes pouvant aller jusqu’à 100 millions de dollars.
Un rapport divulgué par le gouvernement britannique qualifie les inquiétudes concernant une « police à deux vitesses » d’extrémistes.
2–3 minutes
Ce que l’on appelle aujourd’hui la « police à deux vitesses » au Royaume-Uni – la pratique présumée consistant à traiter plus durement un groupe de manifestants que les autres, en fonction de leurs opinions politiques – a été rejetée dans un rapport du ministère de l’Intérieur comme étant « un discours d’extrême droite ».
Sans surprise, ceux dont divers politiciens, militants et médias disent depuis des années qu’ils sont désapprouvés par les autorités en raison de la manière dont leurs manifestations sont gérées, ont tout simplement été qualifiés d’« extrême droite ».
La « police à deux vitesses », qui suggère l’instauration délibérée de deux séries de règles pour un groupe de personnes exprimant publiquement leur mécontentement, a fait ses débuts lors des manifestations de BLM à l’époque du Covid, lorsque les forces de l’ordre britanniques ont été critiquées pour leur « politique de police laxiste ».
Et cela a culminé l’été dernier lorsque le traitement des manifestants après les tueries de Southport a été considéré comme excessivement dur, résumé par le propriétaire de X, Elon Musk, qualifiant le Premier ministre travailliste britannique Keir Starmer de « Keir à deux vitesses ».
Et maintenant, le cabinet de Starmer a été dévoilé pour avoir (comme on pouvait s’y attendre) minimisé et tenté de délégitimer les critiques de ce type , en les faisant croire qu’elles émanent de « l’extrême droite » – et cela se produit dans un rapport baptisé Rapid Analytical Sprint, que le cabinet actuel du Royaume-Uni a commandé afin de « cartographier les menaces extrémistes ».
Le rapport recommande au gouvernement de prêter moins d’attention aux menaces liées à l’islamisme – même si, au cours des 15 dernières années, 94 % des décès liés à des activités terroristes ont été commis par des islamistes.
Mais le document divulgué suggère que le gouvernement britannique devrait prêter davantage attention à d’autres « comportements préoccupants », la misogynie étant citée comme l’un d’entre eux.
Un autre point soulevé dans ces recommandations est de revenir sur la décision du gouvernement précédent d’enregistrer moins d’« incidents haineux non criminels » – même si cela aussi a été difficilement obtenu du cabinet conservateur.
Aujourd’hui, ce nouvel ensemble de mesures recommandées inquiète ses opposants, qui craignent qu’il n’entraîne une perte de capacité à attraper ceux qui représentent un réel danger pour la population, ou encore une suppression de la liberté d’expression.
« Cette nouvelle approche risque de submerger les intervenants de la lutte contre l’extrémisme et la police antiterroriste, déjà surchargés, avec des dizaines, voire des centaines de milliers de nouveaux cas, ce qui augmente le risque que des personnes dangereuses ne soient pas détectées », ont déclaré Paul Stott et Andrew Gilligan de Policy Exchange.
Ils ont ajouté que « certaines définitions de l’extrémisme menacent également la liberté d’expression et le débat politique légitime ».
Les autorités poussent les géants de la technologie à censurer le contenu, contournant ainsi les préoccupations concernant la liberté de la presse et la préservation des preuves.
2–3 minutes
Le gouvernement britannique continue d’utiliser les meurtres de Southport l’année dernière , qui ont conduit à des manifestations généralisées, pour promouvoir la censure en ligne, comme une prétendue panacée aux maux de la société.
La ministre de l’Intérieur Yvette Cooper et le secrétaire d’État à la Science, à l’Innovation et à la Technologie Peter Kyle ont récemment écrit à X, Meta, TikTok, Google (et YouTube) pour leur demander de supprimer le « matériel violent » auquel le tueur de trois enfants, Axel Rudakubana, a pu accéder avant de commettre son crime.
Les enquêteurs ont déclaré que parmi ces documents figuraient une étude universitaire d’un manuel de formation utilisé par les membres d’Al-Qaïda et une vidéo de l’attaque en Australie contre l’évêque Mari Emmanuel.
Cooper et Kyle ont déclaré aux entreprises technologiques que la « possession » de ce matériel est illégale selon la législation antiterroriste du Royaume-Uni, mais qu’il était « facilement accessible » à Rudakubana et continue de l’être à d’autres.
Les deux responsables ont également déclaré à ces entreprises que leur responsabilité de supprimer ce contenu était « morale ».
Le même argument a été avancé par la chancelière de l’Échiquier britannique Rachel Reeves, qui a déclaré à la BBC que même si la loi sur la censure – Online Safety Act – qui obligerait à supprimer ces contenus sera en vigueur à partir de mars, « rien n’empêche les entreprises de supprimer ces contenus dès maintenant. Elles ont la responsabilité morale de le faire. »
Aucun de ces responsables n’a cependant abordé la question des dangers liés à la suppression de vidéos montrant un contenu violent qui mérite d’être publié ou qui pourrait être utilisé comme preuve, par exemple, d’un abus de pouvoir de la police, d’une incapacité à réagir correctement lors d’événements violents, mais aussi pour les exonérer de fausses accusations (comme dans le cas récent de l’incident de l’aéroport de Manchester).
Beeban Kidron, connu pour être un partisan de la censure et de la vérification de l’âge en ligne et membre de la Chambre des Lords, s’est également exprimé au nom de la BBC pour se plaindre du fait que le précédent gouvernement conservateur avait bloqué la disposition de censure du « devoir de diligence » de l’Online Safety Act, et a reproché au cabinet travailliste actuel de « ne pas tenir les promesses qu’il avait faites dans l’opposition ».
Kidron a cependant omis de mentionner que le gouvernement précédent était, quel que soit le cas auquel elle faisait référence, très favorable à un renforcement de la censure en ligne.
Claire Fox, une autre membre de la Chambre des Lords, a réagi à la tendance à faire pression sur les plateformes pour qu’elles suppriment les « contenus extrêmes » ou « risquent un deuxième Southport » en quelques mots choisis publiés sur X :
« Il n’y a pas un seul problème – politique, culturel, économique, social – dont le gouvernement travailliste ne pense pas que la solution soit de mettre fin au débat. Leur mantra technocratique ennuyeux – qui ne cesse de se répéter – est « on ne peut pas dire ça ». Ce sont vraiment des scélérats macabres et censeurs. Méprisables. »
Le Forum économique mondial s’est vanté du fait que la reconnaissance faciale discrète remplacera dans un avenir proche les identifiants numériques dans les villes intelligentes.
3–4 minutes
Lors de l’un des panels de la réunion annuelle du WEF la semaine dernière , le PDG d’Avathon, Pervinder Johar, a présenté sa vision d’un avenir dystopique de surveillance « optimisée » et omniprésente.
Infowars.com rapporte : Johar, bien sûr, ne le formulerait pas exactement de cette façon. Avathon, qui produit des technologies d’intelligence artificielle, notamment de surveillance, estime que dans les cinq à dix prochaines années, il n’y aura plus besoin d’identité numérique puisque la reconnaissance faciale « et d’autres choses » seront intégrées aux « villes intelligentes ».
Le panel était consacré à l’infrastructure publique numérique (IPN) – un mot à la mode utilisé par les partisans de l’identité numérique comme l’ONU, l’UE, le WEF et Bill Gates – et Johar a déclaré que les parties financières et identitaires de l’identité numérique « convergeront » pour produire le résultat qu’il a prédit.
Cela suggère que la population sera sous surveillance constante et identifiée à tout moment. Johar avait d’autres « bonnes nouvelles » : Avathon fabrique ce qu’il appelle une plateforme d’IA industrielle, un système de surveillance qui, selon le PDG, a été déployé au lycée Round Rock au Texas – « pour la sécurité des enfants ».
Il « utilise l’infrastructure de caméras existante d’une école pour détecter de manière proactive tout, d’une arme à une porte ouverte, un accès non autorisé ou même un incendie. »
Une autre intervenante, Hoda Al Khzaimi, vice-rectrice adjointe chargée de la traduction de la recherche et de l’entrepreneuriat à l’Université de New York à Abu Dhabi, a également évoqué le lien entre le DPI et les « villes intelligentes ».
« Les infrastructures publiques numériques sont apparues parce que les gouvernements veulent s’assurer qu’ils fournissent des services transparents dans l’essor des villes intelligentes », a déclaré Al Khzaimi, suggérant en même temps que « l’application optimale du DPI » impose l’identification numérique aux citoyens.
Al Khzaimi a également abordé la question des données DPI. « Ce qui est positif, c’est que si ces données fournies par l’infrastructure DPI sont ouvertes et que dans de nombreux types de scénarios, vous disposez de marchés ouverts pour ces données, les utilisateurs eux-mêmes peuvent inciter les gouvernements et les fournisseurs de ces services à leur dire ce qu’ils veulent et ce qu’ils ne veulent pas et à contrôler les tendances en matière de déploiement et de création de solutions », a-t-elle déclaré.
Al Khzaimi a également salué le partenariat public-privé sur le DPI. Et tout en reconnaissant le risque d’abus (« il ne faut pas soumettre les citoyens à des analyses de masse s’ils ne veulent pas de cette infrastructure d’analyse de masse »), elle s’est rapidement contredite en affirmant qu’il y a des cas où cela devrait être fait – comme pour « analyser les données démographiques en cas d’épidémies de pandémies ».
Le cofondateur et PDG de Kapital, Rene Saul, a parlé du passeport numérique du Mexique (qui utilise la vérification d’identité biométrique aux frontières – quelque chose que Saul n’a pas mentionné), dont il est titulaire, comme un exemple positif d’identité numérique.
Après tout, cela lui a fait gagner 35 minutes.
« Je suis arrivé en Europe pour la première fois et j’ai vu le panneau indiquant que trois autres pays avaient des passeports électroniques. J’ai donc gagné 35 minutes pour entrer en Europe alors qu’il m’en fallait une heure. C’est donc un bon exemple, et un autre bon exemple de cette technologie est qu’elle a ouvert nos frontières », a déclaré Saul.
La méthode KYC (Know Your Customer) a également été mentionnée comme étant utile pour développer des services numériques tels que ceux utilisés par les banques. KYC est en soi une forme invasive de vérification d’identité numérique qui intègre des analyses de documents et une vérification d’identité biométrique.
Le système de paiement biométrique russe renforce les inquiétudes concernant la surveillance et la sécurité des données.
2–3 minutes
Généré par IA
La Russie se prépare à lancer d’ici 2025 un système complet de paiement par reconnaissance faciale, dans le but de créer l’un des plus grands réseaux de paiement biométrique au monde. Cette initiative s’appuiera sur la plateforme Face Pay existante, qui a été progressivement mise en œuvre depuis 2021 et est le fruit d’un effort conjoint de la Sberbank et du National Payment Card System (NSPK). Pour soutenir le déploiement, environ deux millions de terminaux de paiement biométriques devraient être installés dans tout le pays.
Le projet devrait débuter avec un déploiement initial dans le métro de Moscou en 2024. Face Pay , déjà utilisé dans le métro de Moscou et dans plusieurs autres villes comme Kazan et Nijni Novgorod, permet aux usagers d’effectuer des paiements en scannant leur visage. D’ici le second semestre 2025, le système s’étendra à tout le pays, permettant aux utilisateurs d’enregistrer leurs données biométriques via leurs applications bancaires et d’effectuer des paiements sur n’importe quel terminal, quelle que soit leur banque.
Dmitry Malykh, vice-président senior de Sber, a confirmé le calendrier en déclarant : « La feuille de route du projet a déjà été établie et le lancement du réseau est prévu pour le second semestre 2025. Nous développons une norme de paiement biométrique, sur la base de laquelle d’autres acteurs du marché pourront lancer leurs services biométriques. »
Cette initiative sera également intégrée au système biométrique unifié russe (UBS), une base de données gérée par l’État qui centralise les données biométriques à des fins d’identification et d’authentification. Depuis 2022, les banques publiques sont tenues de transférer les informations biométriques de leurs clients à ce système. Cependant, l’adoption par les utilisateurs est lente, la base de données UBS n’ayant pas encore dépassé les trois millions d’utilisateurs, ce qui reflète la résistance du public et les préoccupations potentielles en matière de confidentialité.
Le gouvernement envisage ce système comme bien plus qu’une simple plateforme de paiement. Parmi les fonctionnalités prévues figurent la vérification de l’âge des utilisateurs pour les achats restreints et l’enregistrement sans contact dans les hôtels.
Il est également prévu de prendre en charge des méthodes de paiement alternatives, notamment les transactions en cryptomonnaie, rendant ainsi la plateforme adaptable aux technologies financières émergentes.
De nombreuses personnes s’inquiètent de la double utilisation du système, la technologie de reconnaissance faciale ayant déjà été utilisée pour aider les forces de l’ordre à traquer les dissidents politiques. Bien que commercialisée comme un outil pratique, son intégration dans les réseaux de surveillance met en évidence des risques importants pour la vie privée.
Une fois entièrement déployé, ce système permettra aux particuliers d’effectuer des paiements par reconnaissance faciale de manière transparente entre différentes banques, marquant ainsi l’étape la plus ambitieuse dans la démarche de la Russie vers une infrastructure financière basée sur la biométrie
La crise climatique mise à part, une nouvelle fausse urgence fait rage en ville.
2–3 minutes
Généré par IA
À Davos, Guterres dénonce le recul des engagements climatiques
22 janvier 2025
L’élite politique et économique mondiale présente mercredi à Davos a dû faire face à un discours sans compromis du secrétaire général de l’ONU, António Guterres, alors qu’il évoquait le manque de collaboration multilatérale dans un « monde de plus en plus sans gouvernail » menacé par deux dangers existentiels : le changement climatique et l’intelligence artificielle (IA) non réglementée.
…
« Dépendance aux énergies fossiles »
Comparant la dépendance aux combustibles fossiles au monstre de Frankenstein – « n’épargnant rien ni personne » – le Secrétaire général a noté l’ironie du fait que 13 des plus grands ports du monde pour les superpétroliers soient sur le point d’être submergés par la montée du niveau de la mer, une conséquence de la hausse des températures et de la fonte des glaces marines, causée en grande partie par la combustion du charbon, du pétrole brut et du gaz naturel.
….
Les promesses insoupçonnées de l’IA
La prochaine menace existentielle, l’IA, est une arme à double tranchant, a poursuivi M. Guterres, car elle révolutionne déjà l’apprentissage, diagnostique les maladies, aide les agriculteurs à augmenter leurs rendements et améliore le ciblage de l’aide.
Mais si elle n’est pas maîtrisée, elle comporte de profonds risques : elle peut perturber les économies, saper la confiance dans les institutions et creuser les inégalités, a averti le Secrétaire général.
Bon, peut-être que par « la prochaine menace existentielle », l’ONU entendait simplement « une autre menace existentielle » . Mais c’est une tournure de phrase intéressante.
Bien sûr, il est évident depuis un certain temps que l’ONU aura besoin d’une nouvelle crise pour remplacer la crise climatique déjà fragile.
La fausse crise de l’intelligence artificielle a longtemps été un substitut évident à la fausse crise climatique, en raison de son attrait potentiellement bipartisan. Hollywood nous a préparé avec de nombreux films d’horreur sur l’intelligence artificielle qui dégénère.
Alors comment savons-nous que la crise de l’IA est fausse ?
Ce qui est révélateur, c’est que les personnes qui promeuvent les récits de crise de l’IA sont les mêmes qui ont promu toutes les autres fausses crises.
Selon une nouvelle enquête du Washington Post , la police de tout le pays utilise abusivement les logiciels de reconnaissance faciale, s’appuyant sur eux pour arrêter des suspects sans preuves supplémentaires.
2–3 minutes
Généré par IA
La plupart des services de police ne sont pas tenus de divulguer ou de documenter son utilisation. Parmi les 23 services de police disposant de dossiers, 15 dans 12 États ont arrêté des suspects uniquement sur la base de correspondances obtenues par IA, violant souvent les politiques internes exigeant une corroboration.
Un rapport a qualifié de « correspondance à 100 % » une correspondance non vérifiée obtenue par l’IA, tandis qu’un autre a affirmé que la technologie avait « incontestablement » identifié un suspect. Au moins huit personnes ont été arrêtées à tort aux États-Unis en raison de correspondances obtenues par l’IA, dont deux n’avaient pas été signalées auparavant.
Toutes les affaires ont été classées sans suite, mais des mesures policières de base, comme la vérification des alibis ou la comparaison des preuves matérielles, auraient pu empêcher ces arrestations. L’ampleur réelle des fausses arrestations alimentées par l’IA reste inconnue, car la plupart des services de police n’ont pas d’obligations de divulgation et révèlent rarement l’utilisation de l’IA.
Le Post a identifié 75 services utilisant la reconnaissance faciale, et les enregistrements de 40 d’entre eux montrent que les arrestations sont liées à des correspondances obtenues par l’IA. Parmi ceux-ci, 23 ont fourni suffisamment de détails, révélant que près des deux tiers ont procédé à des arrestations sans preuve corroborante. Les services ont souvent refusé de discuter de leurs pratiques ou ont affirmé que les agents s’appuyaient sur leur jugement visuel pour confirmer les correspondances.
À Florence, dans le Kentucky, la police a eu recours à des correspondances non corroborées par l’IA dans au moins quatre cas, avec des résultats mitigés. Le procureur local Louis Kelly a défendu le jugement des policiers dans l’identification des suspects, y compris ceux signalés par l’IA.
Pour son rapport, le Washington Post a examiné l’utilisation de la reconnaissance faciale par 75 services de police, avec des enregistrements détaillés de 23 d’entre eux. Il a découvert que 15 services, dont Austin, Detroit et Miami, ont procédé à des arrestations uniquement sur la base de correspondances IA sans preuves indépendantes.
Certaines affaires n’étaient pas documentées ou transparentes, tandis que d’autres s’appuyaient sur des pratiques douteuses, comme la présentation de photos identifiées par l’IA à des témoins. Les entretiens ont permis de clarifier certains cas, mais le recours à l’IA non corroborée reste répandu.
Les membres du Forum économique mondial (WEF) ont dévoilé des plans visant à vacciner en masse et de manière permanente le grand public « tous les six mois » avec des « vaccins » à ARNm « à action prolongée » dans le cadre d’un prétendu effort visant à lutter contre de multiples maladies.
4–6 minutes
Généré par IA
Lors des tables rondes organisées cette semaine lors de la réunion annuelle du Forum économique mondial (WEF) à Davos, en Suisse, les mondialistes ont présenté des plans pour une médecine de précision axée sur la technologie, des « injectables à action prolongée », des vaccins « sensibles au climat » et des thérapies à ARNm pour les maladies non transmissibles.
Le PDG de Pfizer, Albert Bourla, était parmi ceux qui s’exprimaient jeudi lors du panel « La technologie dans le monde ».
Bourla a déclaré aux élites de Davos que les progrès de la technologie de l’intelligence artificielle (IA) et de la biotechnologie « entrent en collision » avec « d’énormes effets synergétiques ».
Le directeur pharmaceutique a affirmé que cela pourrait conduire au développement d’une médecine de précision pour guérir des maladies comme le cancer.
Bourla insiste sur le fait que l’IA peut aider à développer « quelque chose comme un missile guidé par GPS : un médicament très précis », qui pourrait cibler des cellules cancéreuses spécifiques.
Ce « missile guidé » permettrait de faciliter la conception d’anticorps qui cibleraient les cellules cancéreuses, a ajouté Bourla.
Il affirme qu’une « ogive » – vraisemblablement un « vaccin » – tuerait alors ces cellules.
Plus tôt cette semaine, les dirigeants du secteur technologique ont annoncé le lancement de la Stargate Initiative.
Le programme se concentre en partie sur des solutions de « santé » basées sur l’ARNm et alimentées par la technologie de l’intelligence artificielle (IA).
Lors du même panel, Dario Amodei, PDG et cofondateur de la start-up d’IA Anthropic , a déclaré qu’il n’était « pas du tout fou » de penser que l’IA pourrait doubler la durée de vie des élites riches d’ici « cinq à dix ans ».
Ruth Porat, présidente et directrice des investissements de Google, a annoncé que la société avait commencé à s’intéresser à d’autres domaines que la technologie.
Porat a déclaré que Google a désormais pour objectif de devenir « le leader de la science et de l’innovation ».
Peter Sands, directeur exécutif du Fonds mondial de lutte contre le sida, la tuberculose et le paludisme, a présenté des plans visant à vacciner des populations entières contre plusieurs maladies.
S’exprimant dans le cadre du panel « Santé et prospérité par la prévention », Sands a déclaré que les membres du public se verront bientôt administrer des « vaccins » à ARNm « injectables à action prolongée » deux fois par an pour soi-disant traiter ces maladies.
Sands a déclaré que la « préparation injectable à action prolongée » est « fonctionnellement équivalente à un vaccin à action courte et efficace à 100 % ».
Au cours de la même session, Vas Narasimhan, PDG du géant pharmaceutique Novartis, a déclaré que les « thérapies à base d’ARN » pourraient être administrées chaque année ou chaque semestre pour traiter une gamme de maladies non transmissibles.
« Les systèmes de santé ne sont probablement pas préparés à l’assaut que le diabète, l’hypertension, l’hypercholestérolémie et le cancer vont provoquer », a déclaré Narasimhan.
« Ce qui me semble vraiment passionnant, c’est que nous entrons désormais dans une ère, ou que nous sommes déjà dans une ère où la technologie peut réellement résoudre bon nombre de ces problèmes… avec les thérapies à base d’ARN, nous entrons désormais dans un monde où l’on peut administrer ces médicaments peut-être une fois tous les deux ans , peut-être une fois par an. »
Au cours de la même session, Sania Nishtar, PDG de Gavi, l’Alliance du vaccin , a déclaré que la moitié des vaccins du portefeuille de son organisation sont « sensibles au climat ».
Gavi est un partenariat public-privé international qui promeut la vaccination.
La Fondation Gates détient l’un des quatre sièges permanents au conseil d’administration de Gavi et fournit la majeure partie du financement de l’organisation.
« Nous n’affichons pas de manière très visible l’étiquette de maladie sensible au climat, mais le fait est que 50 % de nos vaccins sont profondément pertinents pour les maladies sensibles au climat », a déclaré Nishtar.
Elle a ajouté qu’il faut s’attaquer aux « poches difficiles de vaccination » dans les « régions touchées par le changement climatique ».
Les participants à la réunion de cette année ont déclaré que le succès des innovations technologiques dans le domaine des soins de santé dépend de l’intégration des leçons tirées de la pandémie de Covid.
Cependant, de nombreux mondialistes qui se sont exprimés lors du sommet du WEF ont averti que surmonter les « obstacles » tels que « l’hésitation à se faire vacciner » au sein du grand public doit être considéré comme une priorité absolue.
Bourla a évoqué la « réaction massive » contre le « vaccin » contre le Covid.
Il a alerté les membres du public qui ont choisi de ne pas se faire vacciner, eux et leur famille, en prévenant la foule que « peut-être 10 à 20 % des gens » sont « réticents à la vaccination ».
Le PDG de Pfizer a noté que « l’IA sera également confrontée aux mêmes problèmes ».
Cependant, malgré les avantages présumés de la technologie, Bourla a affirmé que la technologie de l’IA « répandrait la désinformation » sur les « vaccins ».
« Chaque erreur commise par l’IA… sera amplifiée au degré ultime, en ignorant que les humains font des erreurs encore plus grosses et en ignorant que les avantages que nous avons obtenus jusqu’à présent sont énormes », a affirmé Bourla.
Le PDG du Serum Institute of India, Adar C. Poonawalla , a réagi en appelant les dirigeants gouvernementaux à imposer des passeports vaccinaux pour surmonter les hésitations.
Lors du panel « Santé et prospérité par la prévention », Poonawalla a fait valoir que les gouvernements auraient dû imposer des passeports vaccinaux mondiaux pendant la pandémie de Covid.
Le taux d’expulsion de la Suisse est stupéfiant, surtout en comparaison avec d’autres pays à la traîne de l’UE comme la France et l’Allemagne
2–4 minutes
Généré par IA
La Suisse excelle dans l’expulsion des immigrants voués à l’expulsion, atteignant le taux le plus élevé d’Europe en 2024 avec un taux d’expulsion de 60 % et augmentant ses propres progrès de 18 % par rapport à 2023.
Au total, la Suisse a pu expulser 7000 demandeurs d’asile en 2024, a déclaré Beat Jans, le conseiller fédéral en charge de l’asile, lors d’un discours au WEF.
Interrogé sur les raisons pour lesquelles la Suisse a réussi à obtenir de tels retours, M. Jans a répondu que c’était grâce à une meilleure collaboration avec les cantons, qui désignent les États fédéraux de la Suisse, selon la chaîne de télévision suisse RTS .
Jans a déclaré qu’il s’agissait d’une « bonne évolution » et a salué le travail du Secrétariat d’État aux migrations (SEM), chargé d’obtenir les documents nécessaires pour assurer un retour rapide.
Malgré le nombre élevé de retours, la pression sur les cantons reste élevée, a déclaré M. Jans. Il a ajouté qu’il souhaitait développer davantage les accords entre les différents pays afin de garantir que les expulsions puissent avoir lieu.
« Il y a moins de réfugiés qui arrivent en Suisse parce que nous avons négocié de meilleurs accords avec les pays de transit, mais aussi avec les pays d’origine, pour que moins de personnes se mettent en danger en fuyant. C’est une voie que la Suisse a tracée avec ses 66 accords migratoires. C’est une bonne chose pour les personnes concernées, mais aussi pour nous en tant que pays », a expliqué Jans.
Selon le journal suisse Aargauer Zeitung, de nombreux rapatriés sont retournés en Algérie, avec laquelle la Suisse a signé un accord de réadmission en 2006.
Le Parlement suisse fait désormais pression pour un accord avec le Maroc, ce qui pourrait faire grimper encore davantage le taux d’imposition de la Suisse.
D’autres pays comme l’Allemagne et la France affichent un taux d’expulsion déplorable. Comme l’a déjà rapporté Remix News, le taux de décorations en France oscille entre 8 et 15 % , malgré les promesses du président français Emmanuel Macron d’atteindre un taux d’expulsion de 100 % . Dans certains cas, comme en Algérie, la France n’a réussi à expulser que 0,2 % des migrants qui devaient être expulsés.
En Allemagne, après chaque nouvelle attaque terroriste ces derniers mois, le chancelier Olaf Scholz a déclaré que le gouvernement prendrait « au sérieux » les expulsions. Pourtant, les expulsions n’ont toujours pas lieu et les meurtres continuent de s’accumuler, notamment les morts à l’arme blanche survenues cette semaine en Bavière, où un garçon de deux ans et un homme de 41 ans se trouvaient dans un parc avec un groupe d’enfants. D’autres membres du groupe, âgés de un à trois ans, ont également été poignardés.
Le taux d’expulsion est si épouvantable, et le refrain de Scholz devient si lassant, que même les médias d’État allemands, connus pour leur couverture amicale du gouvernement de gauche libéral au pouvoir, commencent à remettre en question la capacité de Scholz à contrôler l’immigration de masse.
L’UE renforce la censure avec le Digital Services Act, en renforçant les lois sur les discours de haine et les mesures de « vérification des faits », ciblant les discours en ligne.
2–3 minutes
Généré avec IA
Après des années de censure en ligne implacable menée par les géants technologiques américains (souvent, semble-t-il, par l’intermédiaire de tiers et à la demande des gouvernements, y compris le leur), les choses commencent à s’améliorer un peu.
Mais en Europe, l’UE est impliquée dans des tentatives parfois frénétiques pour au moins maintenir le statu quo en matière de suppression de la liberté d’expression, et se prépare désormais à intensifier l’utilisation des outils juridiques qu’elle a préparés au cours des années précédentes, en particulier le Digital Services Act (DSA), rejeté par les critiques comme la loi de censure du bloc.
Selon les rapports des conservateurs européens , la bureaucratie de l’UE est clairement ébranlée par le retour au pouvoir de Donald Trump et par le fait que, contrairement à son premier mandat, la plupart des Big Tech soutiennent désormais ses politiques (entre autres, fortement anti-censure).
Les déclarations de la vice-présidente de la Commission européenne, Henna Virkkunen, montrent à quel point les Européens sont ébranlés. Elle estime que les entreprises derrière les principales plateformes sociales qui « se rangent du côté » de ce président américain (mais pas du précédent) constituent « une menace directe pour la démocratie européenne ».
L’idée que la liberté d’expression constitue une « menace » pour la démocratie est difficile à comprendre. C’est pourtant la ligne adoptée par l’UE, et la manière de contrer cette « menace », a révélé Virkkunen lors de son discours au Parlement européen cette semaine, est de renforcer le recours aux vérificateurs de faits et aux « lois sur les discours de haine ».
Pour y parvenir, le personnel de l’UE chargé de faire appliquer la DSA sera porté à 200 personnes d’ici la fin de l’année, et ce nombre sera complété par ce que les rapports appellent des « coordinateurs DSA locaux » dans les pays membres.
Et bien que Virkkunen ait nié que le DSA soit une sorte de loi de censure, elle a rapidement expliqué comment il peut être utilisé pour censurer le contenu, affirmant que si un discours est illégal (au motif de promotion de la haine) « hors ligne », le DSA le rend désormais également illégal et éligible à la suppression en ligne.
Cela est vrai aussi bien pour les lois de l’UE que pour celles des 27 pays membres, qui prévoient une grande variété de législations favorisant la censure, compte tenu de la tendance à criminaliser la liberté d’expression présente partout en Europe.
Les règles de l’UE sur les discours de haine seront également mises à jour pour obliger les grandes plateformes technologiques à s’assurer que « les discours de haine sont signalés et évalués 24 heures sur 24, et supprimés si nécessaire ».
Neuralink, la société d’Elon Musk, a implanté avec succès sa première puce cérébrale chez un patient humain, dans le but de permettre la communication télépathique et de traiter les troubles neurologiques, bien que les implications à long terme de la technologie restent incertaines.
4–6 minutes
Généré par IA
Les expériences de stimulation cérébrale remontent à des décennies, les chercheurs utilisant des électrodes pour induire du plaisir, contrôler le comportement et gérer la douleur, soulevant d’importantes préoccupations éthiques concernant l’intervention humaine en biologie.
Le premier patient de Neuralink, un tétraplégique, contrôlait initialement un curseur d’ordinateur avec ses pensées, mais l’efficacité de l’appareil a diminué après un mois en raison de la rétraction du fil, ce qui a donné lieu à des projets d’implantation plus profonde dans les essais futurs.
Cette technologie présente des risques d’utilisation abusive, notamment une potentielle manipulation des pensées par les gouvernements ou les entreprises, un accès inégal créant une division de classe, et des vulnérabilités au piratage ou aux pannes.
Les experts soulignent la complexité et le caractère sacré du cerveau, appelant au scepticisme et à une réflexion attentive sur les conséquences éthiques, sociétales et à long terme de ces avancées technologiques invasives
Elon Musk, magnat de la technologie connu pour ses projets ambitieux dans l’espace, les véhicules électriques et l’intelligence artificielle, a désormais jeté son dévolu sur le cerveau humain. Son entreprise, Neuralink, a récemment fait la une des journaux en implantant avec succès sa première puce cérébrale chez un patient humain. Si Musk présente cette initiative comme une avancée révolutionnaire vers la communication télépathique et la guérison des troubles neurologiques, les implications d’une telle technologie exigent un examen plus approfondi et plus prudent.
Le concept de câblage du cerveau n’est pas nouveau. Comme le Dr Vernon Coleman l’a souligné dans son livre Paper Doctors paru en 1977 , les médecins expérimentent la stimulation électronique du cerveau depuis des décennies. En insérant des électrodes dans le cerveau, les chercheurs ont pu induire du plaisir, éradiquer la douleur et même contrôler le comportement à distance. Ces expériences, bien que fascinantes, soulèvent de profondes questions éthiques sur les limites de l’intervention humaine dans notre propre biologie.
Le premier patient de Neuralink, Noland Arbaugh, un tétraplégique, a d’abord obtenu des résultats prometteurs en contrôlant un curseur d’ordinateur par la pensée. Cependant, l’efficacité de l’appareil a diminué au bout d’un mois en raison de la rétraction de 85 % des fils implantés. Neuralink a depuis ajusté son approche et prévoit d’implanter les fils plus profondément dans le cerveau lors de futurs essais . Si cette solution technique peut améliorer la fonctionnalité, elle ne répond guère aux préoccupations plus larges entourant cette technologie invasive.
L’idée d’implanter des dispositifs dans le cerveau pour contrôler le comportement ou améliorer les capacités cognitives n’est pas sans précédent. Dans les années 1950, le Dr Jose Delgado de l’Université Yale a démontré que les animaux – et même les humains – pouvaient être contrôlés par des électrodes implantées. Ses expériences, bien que révolutionnaires, ont été accueillies avec scepticisme et crainte. L’idée que les humains soient manipulés comme des « jouets électroniques » est un rappel effrayant des dangers potentiels d’une telle technologie.
Les partisans de Neuralink affirment que ce produit pourrait révolutionner la médecine et offrir de l’espoir aux personnes atteintes de troubles neurologiques graves. Elon Musk lui-même a affirmé que le premier produit de la société, Telepathy, permettrait aux utilisateurs de contrôler des appareils « simplement par la pensée ». Mais à quel prix ? Les effets à long terme des implants cérébraux restent inconnus et le risque d’utilisation abusive est stupéfiant.
Piratage cérébral
Imaginez un monde dans lequel les gouvernements ou les entreprises pourraient accéder aux pensées des individus et les manipuler. Les implications dystopiques sont tout droit sorties d’un roman de science-fiction, mais elles ne sont pas farfelues. À une époque où la vie privée est déjà assiégée , l’idée que nos pensées les plus intimes soient vulnérables au contrôle extérieur est profondément troublante.
De plus, les considérations éthiques liées à une telle technologie ne peuvent être ignorées. Qui décide qui aura accès à ces implants ? Seront-ils réservés aux riches, créant ainsi une nouvelle classe d’humains « améliorés » ? Et que se passera-t-il si la technologie échoue ou est piratée ? Les risques sont immenses et le risque de conséquences imprévues est élevé.
Des recherches récentes menées par l’Institut autrichien des sciences et technologies (ISTA) ont mis en lumière les complexités du cerveau humain, révélant que notre connectivité neuronale est fondamentalement différente de celle des rongeurs . Cela souligne les défis que pose la transposition des expériences sur les animaux aux applications humaines. Le cerveau humain n’est pas une machine à bricoler ; il est le siège de notre conscience, de notre identité et de notre humanité.
En tant que conservateurs, nous devons aborder ces avancées technologiques avec une bonne dose de scepticisme. Si l’innovation est essentielle, elle doit être tempérée par le respect du caractère sacré de la vie humaine et de l’ordre naturel. Le cerveau n’est pas seulement une autre frontière à conquérir ; il est l’essence même de ce que nous sommes.
Le Neuralink d’Elon Musk représente peut-être la pointe de la science, mais il soulève également de profondes questions sur l’avenir de l’humanité. Sommes-nous prêts à adopter un monde où nos pensées pourront être contrôlées par des machines ? Ou ouvrons-nous la boîte de Pandore, libérant des forces que nous ne pouvons pas contrôler ?
Alors que nous nous trouvons au bord du précipice de ce monde nouveau et courageux, nous devons avancer avec prudence. La promesse du progrès ne doit pas nous aveugler face aux dangers potentiels. Le cerveau humain est une merveille de la nature et nous devons veiller à ce que toute intervention respecte sa complexité et son caractère sacré. Les enjeux sont trop importants pour que nous puissions nous tromper.
Laisser un commentaire