Les critiques avertissent que le projet de loi pourrait transformer le système de protection sociale en un réseau de surveillance financière géré par le gouvernement.
2–3 minutes
Le gouvernement britannique est accusé d’avoir tenté de faire adopter à toute vitesse au Parlement un projet de loi controversé, le Public Authorities (Fraud, Error & Recovery Bill). Les critiques affirment que le projet de loi contient des dispositions dystopiques de surveillance de type crédit social.
Le projet de loi de 116 pages a été présenté il y a seulement une semaine, ce qui a amené l’organisation de défense des droits de l’homme Big Brother Watch à conclure que les députés n’auront peut-être même pas assez de temps pour lire le texte avant de devoir commencer à en débattre.
Malgré son titre très civique, les opposants au projet de loi avertissent que, sous couvert d’empêcher le gaspillage massif de l’argent des contribuables par le biais de la fraude aux prestations sociales, il servirait également à mettre en place un système d’« espionnage de masse » des comptes bancaires, mené par le gouvernement (le ministère du Travail et des Retraites, DWP).
Cela comprend la surveillance constante des relevés bancaires des personnes, la possibilité de révoquer les permis de conduire et de fouiller les locaux, les ordinateurs et autres appareils.
Le système de protection sociale britannique se transformerait ainsi en « un système de surveillance numérique (…) avec des intrusions dans la vie privée sans précédent », a déclaré Silkie Carlo, directrice de Big Brother Watch.
D’autre part, le DWP affirme que même s’il aura accès aux relevés bancaires appartenant aux comptes ciblés comme fraudeurs du système de prestations sociales, et pourra faire prélever de l’argent sur ces comptes, il n’aura pas « d’accès direct aux comptes réels ».
C’est une maigre consolation, suggèrent les groupes de protection de la vie privée, puisque la loi s’étend ensuite à l’obligation pour les banques et les sociétés de construction de soumettre des rapports sur les fraudes présumées, ce qui permettra aux enquêteurs du DWP d’exercer leur nouvelle capacité à demander des mandats de perquisition, puis, avec la police, à effectuer des perquisitions, notamment dans les maisons et les appareils.
Il semble qu’il s’agisse d’un autre exemple d’un système « à deux vitesses » au Royaume-Uni, lié cette fois au système judiciaire – du moins à en juger par l’interprétation de Carlo.
Elle craint que, d’un côté, les couches les plus à risque de la société – les personnes âgées, les pauvres et les handicapés – soient privées du droit d’être entendues par les tribunaux et deviennent plus vulnérables à des « sanctions erronées », ce qui aurait des conséquences catastrophiques pour leur situation financière.
D’autre part, Carlo a déclaré que ces dispositions représentent « des intrusions dans la vie privée et des sanctions totalement sans précédent qui porteront plus atteinte aux valeurs fondamentales britanniques d’équité et de justice qu’aux fraudeurs les plus graves ».
Le projet de loi de Hawley suscite des inquiétudes quant à la liberté d’expression et prévoit des sanctions sévères pour l’utilisation de l’IA.
2–3 minutes
Le sénateur américain Josh Hawley cherche à étendre la « guerre technologique » sino-américaine à un autre front : l’intelligence artificielle. Cette initiative a apparemment été déclenchée par le lancement du modèle d’intelligence artificielle chinois DeepSeek, qui est devenu très populaire en peu de temps.
Hawley, un républicain, a réagi en présentant le projet de loi visant à découpler les capacités d’intelligence artificielle de l’Amérique de la Chine. Jusqu’à 20 ans de prison et de lourdes amendes pour ceux qui téléchargent « volontairement » DeepSeek figurent parmi les possibilités les plus frappantes découlant de la formulation du projet de loi.
Nous avons obtenu une copie de la facture pour vous ici .
Certains observateurs interprètent ici le terme « volontairement » comme signifiant qu’une personne a non seulement téléchargé DeepSeek, mais qu’elle sait également qu’il s’agit d’une application chinoise, ce qui devrait alors être prouvé devant un tribunal – si la proposition de Hawley devenait loi.
Cela pourrait toutefois également affecter, par exemple, Hugging Face, une entreprise américaine qui donne accès aux entreprises au code utilisé pour évaluer les modèles d’apprentissage automatique, ainsi que les fournisseurs de cloud, qui pourraient ne plus être en mesure d’héberger des modèles ou des applications chinoises.
Hawley a expliqué son effort législatif par la nécessité de garantir la « supériorité économique » des États-Unis, ce qui nécessite d’empêcher l’argent et les données de circuler vers les produits chinois et de « couper la Chine de l’ingéniosité américaine », mais aussi de mettre un terme à ce qu’il appelle « le subventionnement de l’innovation du PCC (Parti communiste chinois) ».
L’annonce de Hawley mentionne le nom de DeepSeek, le décrivant comme un modèle de collecte de données à faible coût qui a suscité une « inquiétude internationale » – mais qui a également fait « chuter » les actions technologiques américaines.
Les principaux objectifs du projet de loi sont d’interdire à la fois l’exportation de technologies d’IA vers la Chine et l’importation vers les États-Unis ; d’interdire aux entreprises américaines de coopérer avec des entreprises chinoises pour effectuer des recherches sur l’IA dans ce pays ; et d’interdire aux entreprises américaines d’investir dans le développement de l’IA chinoise.
Le projet de loi cite la loi de réforme du contrôle des exportations de 2018 comme base juridique et menace également d’amendes pouvant aller jusqu’à 1 million de dollars et/ou d’une peine de prison pouvant aller jusqu’à 20 ans les personnes qui violent « volontairement » ladite interdiction.
Les premiers critiques du projet de loi soulignent qu’il aurait un impact négatif sur la recherche scientifique publique en dressant des barrières entre les informaticiens des deux pays.
Les entreprises qui enfreignent l’interdiction de la recherche américano-chinoise pourraient être punies d’amendes pouvant aller jusqu’à 100 millions de dollars.
L’UE n’est pas le modèle de protection de la vie privée qu’elle prétend être.
2–3 minutes
Le 2 février, la première date limite de mise en conformité avec la loi sur l’intelligence artificielle de l’UE , entrée en vigueur en août, a été atteinte. Il s’agit de dispositions qui contiennent des règles permettant à l’Union de légaliser la surveillance biométrique de masse.
Cela se produit par le biais de l’article 5 , qui cherche à première vue à introduire des protections contre l’utilisation de systèmes d’IA qui représentent un « risque inacceptable ». Mais il existe également des exceptions à cette règle, définies dans la loi comme les cas « strictement nécessaires » où l’utilisation de ces mêmes systèmes est autorisée.
C’est ce qui a fait naître la crainte que l’une des conséquences de la loi sur l’IA soit de légaliser certains déploiements très controversés de surveillance de masse alimentée par des données biométriques.
L’article 5 interdit aux forces de l’ordre d’utiliser des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, mais seulement « à moins que et dans la mesure où une telle utilisation est strictement nécessaire ».
Les cas « strictement nécessaires » sont décrits comme ceux où les forces de l’ordre recherchent des « victimes spécifiques » de crimes tels que l’enlèvement, la traite et l’exploitation sexuelle, mais aussi lorsqu’elles recherchent des personnes disparues.
La deuxième définition est moins précise dans sa portée, car elle permet d’utiliser des systèmes de surveillance par IA pour prévenir la criminalité. Cela inclut une menace à la vie ou à la sécurité physique des individus considérée comme « spécifique, substantielle et imminente » – ou une menace d’attaque terroriste que les forces de l’ordre jugent « réelle et présente » mais aussi « réelle et prévisible ».
Enfin, la loi sur l’IA considère comme « strictement nécessaires » pour exempter des activités d’IA interdites les activités suivantes : « Localisation ou identification d’une personne soupçonnée d’avoir commis une infraction pénale, aux fins de mener une enquête ou des poursuites pénales ou d’exécuter une sanction pénale pour des infractions. »
Ces infractions sont mentionnées à l’annexe II et sont punies dans les pays membres de l’UE pour une durée maximale d’au moins quatre ans.
En d’autres termes, de nombreux scénarios et interprétations « strictement nécessaires » permettant une surveillance biométrique de masse peuvent être dérivés de ces règles.
Pour faciliter l’application de la loi, l’UE a élaboré son « Pacte sur l’IA » – un autre des « engagements volontaires » du bloc signés par plus de 100 entreprises, dont Amazon, Google et OpenAI – mais pas par Meta et Apple.
Certains observateurs notent que les entreprises critiques à l’égard de la loi attendent de la clarté concernant les normes et les lignes directrices.
Le projet de loi pourrait conduire à un blocage généralisé de sites, malgré les allégations de protection de l’Internet ouvert.
2–3 minutes
La députée Zoe Lofgren, qui siège au Comité de la science, de l’espace et de la technologie de la Chambre des représentants et au Sous-comité de la Chambre des représentants sur les tribunaux, la propriété intellectuelle, l’IA et Internet, lance une nouvelle bataille dans la « guerre contre le piratage ».
L’intention déclarée derrière le projet de loi qu’elle a présenté – HB 791 – est censée être évidente d’après son nom : la loi anti-piratage numérique étranger (Foreign Anti-Digital Piracy Act, FADPA).
Nous avons obtenu une copie de la facture pour vous ici .
Et Lofgren insiste sur le fait que cette loi protégera à la fois les consommateurs, la communauté créative et les travailleurs américains du piratage Internet étranger et « préservera l’Internet ouvert ». Mais certains craignent que si elle devenait loi, la loi HB pourrait ouvrir la voie au blocage massif de sites .
Depuis l’échec de la très controversée loi SOPA (Stop Online Piracy Act) il y a plus de dix ans, la FADPA est la première fois que les législateurs américains tentent de réexaminer la question de la violation du droit d’auteur. Ironiquement, Lofgren s’était opposée à la SOPA à l’époque, mais elle estime aujourd’hui que sa proposition est meilleure.
Lofgren, une démocrate californienne, a déclaré avoir travaillé « en étroite collaboration » avec Hollywood pour rédiger le projet de loi, qui permettrait aux détenteurs de droits d’auteur de forcer les FAI à bloquer les sites accusés d’héberger des flux pirates.
La manière dont cela pourrait se dérouler dans le monde réel (cette fois-ci, sur Internet) est une autre affaire. Si l’on en croit le célèbre Digital Millennium Copyright Act (DMCA), la crainte d’abus, puisque les titulaires de droits d’auteur peuvent supprimer des contenus, y compris dans les cas où les avis sont faux, ne semble pas infondée.
Certains observateurs considèrent que la FADPA est encore plus imparfaite, en ce sens, que le DMCA.
Mais le projet de loi a été présenté après plusieurs mois de négociations entre les entreprises technologiques et ceux qui produisent du contenu, dans le but de garantir sa constitutionnalité et son applicabilité, mais aussi pour qu’il n’impose pas de « responsabilités indues ».
Sans surprise, le projet de loi a reçu le soutien de la Motion Picture Association (MPA), de l’Authors Guild, de l’Independent Film & Television Alliance (IFTA), de l’International Alliance of Theatrical Stage Employees (IATSE), de la Copyright Alliance, de la Screen Actors Guild (SAG-AFTRA), ainsi que de l’Information Technology and Innovation Foundation (ITIF).
La députée Lofgren espère « continuer à travailler » sur la législation anti-piratage avec les républicains de la Chambre.
Apple a critiqué une application pornographique nouvellement disponible sur les iPhones dans l’Union européenne, affirmant qu’elle était « obligée par la Commission européenne de l’autoriser ».
2–3 minutes
Dans l’UE, AltStore a commencé à distribuer une application appelée Hot Tub, qui se décrit comme « un moyen privé, sécurisé et élégant de parcourir du contenu pour adultes ».
Dans un communiqué du 3 février, Apple a déclaré être « profondément préoccupé par les risques de sécurité que les applications de pornographie hardcore de ce type créent pour les utilisateurs de l’UE, en particulier les enfants ».
« Cette application et d’autres similaires vont saper la confiance des consommateurs dans notre écosystème.
« La vérité est que la Commission européenne nous oblige à autoriser sa distribution », a déclaré Apple.
Le statut de gardien d’Apple a changé avec l’adoption en 2022 du Digital Markets Act (DMA), qui oblige Apple à autoriser les magasins d’applications alternatifs.
L’entreprise a affirmé qu’en autorisant l’application pornographique, la politique numérique du bloc sapait également la confiance des consommateurs envers Apple.
Depuis l’ouverture de l’App Store sur les iPhone en 2008, Apple contrôle les applications pouvant être téléchargées sur ces appareils. Steve Jobs, alors PDG, a déclaré en 2010 que la « responsabilité morale » d’Apple était de maintenir la pornographie hors de l’iPhone et l’une des principales motivations de l’entreprise pour agir en tant que gardien de l’iPhone.
AltStore a déclaré avoir reçu le soutien d’Epic Games, le créateur du jeu vidéo Fortnite qui a déposé une plainte antitrust contre Apple. AltStore a déclaré avoir utilisé ce financement pour payer les frais facturés par Apple aux magasins d’applications alternatifs qui font l’objet d’une enquête de l’UE, selon Reuters .
Dans le cadre de son processus d’App Store alternatif, Apple a toujours exigé que les applications soient soumises à un examen de base appelé « notarisation » qui vérifiait les menaces de cybersécurité telles que les logiciels malveillants connus, mais n’impliquait pas l’approbation du contenu de l’application.
AltStore a déclaré que Hot Tub avait été notarié par Apple et dans un article sur X, il a décrit cette décision comme faisant de l’application « la première application pornographique au monde approuvée par Apple », provoquant la colère du géant américain de la technologie.
« Contrairement aux fausses déclarations faites par le développeur de la place de marché, nous n’approuvons certainement pas cette application et ne la proposerons jamais dans notre App Store », a déclaré Apple dans un communiqué.
AltStore a déclaré que les commentaires sur X faisaient référence à la décision de notarisation d’Apple et Hot Tub a dirigé les demandes de presse vers AltStore.
Dans un message publié sur X, le directeur général d’Epic Games, Tim Sweeney, a déclaré que son entreprise avait soutenu des lois telles que le DMA car « lorsqu’Apple est autorisé à être le gardien des applications et des magasins concurrents, il utilise ce pouvoir de manière abusive pour désavantager la concurrence ».
Il a ajouté que la boutique d’applications d’Epic dans l’UE, lancée l’année dernière, ne proposait pas l’application Hot Tub et n’avait jamais hébergé d’applications pornographiques.
Meta, l’application de Mark Zuckerberg, propose aux créateurs de TikTok de gagner jusqu’à 50 000 dollars par mois pour publier du contenu exclusif sur Instagram Reels. Zuckerberg considère l’avenir incertain de TikTok en Chine comme une opportunité idéale pour renforcer son emprise sur le paysage des médias sociaux.
2–3 minutes
Business Insider rapporte que l’avenir de TikTok aux États-Unis reste incertain, et que Meta, le fondateur de Mark Zuckerberg, a saisi l’occasion d’attirer les créateurs de TikTok les plus populaires sur sa plateforme en leur offrant des incitations financières substantielles. Selon des accords divulgués par Instagram, le géant des médias sociaux offre aux créateurs jusqu’à 50 000 dollars par mois pour publier du contenu vidéo exclusif de courte durée sur Instagram Reels.
Business Insider a consulté des contrats et discuté avec plusieurs gestionnaires de talents dont les clients ont reçu ces offres lucratives de Meta. Les accords, qui sont envoyés aux créateurs comptant plus d’un million d’abonnés sur TikTok, les obligent à publier un certain nombre de Reels sur Instagram chaque mois, le contenu restant exclusif à la plateforme pendant trois mois.
Les rémunérations sont réparties en cinq tranches, allant de 2 500 à 50 000 dollars par mois. Cependant, les critères permettant de déterminer quels créateurs appartiennent à chaque tranche restent flous, car les responsables n’ont pas été en mesure de dégager une tendance claire.
L’un des contrats les plus importants proposés est un contrat de six mois d’une valeur totale de 300 000 dollars. En vertu de cet accord, les créateurs doivent publier au moins 10 nouvelles vidéos Reels inédites sur leurs comptes Instagram chaque mois. Les vidéos doivent durer entre 15 secondes et trois minutes et doivent rester exclusives à Instagram pendant trois mois. De plus, les créateurs sont tenus de publier 25 % de contenu en plus sur Instagram Reels que sur leur prochaine plus grande plateforme de vidéos courtes et doivent interagir quotidiennement avec les fans par le biais de commentaires, de partages ou de réponses.
Malgré les importantes incitations financières, certains créateurs de TikTok ont refusé les offres de Meta, invoquant des inquiétudes quant à l’exclusivité et une frustration générale à l’égard de l’entreprise. Un responsable des talents a déclaré que certains clients estimaient que publier plusieurs Reels par jour ne correspondait pas à la façon dont les jeunes utilisent les réseaux sociaux.
En plus des offres de contenu exclusif, Meta a également lancé un programme « Breakthrough Bonus », qui verse aux créateurs TikTok éligibles jusqu’à 5 000 $ sur une période de trois mois pour la publication de Reels sur Instagram et Facebook.
Alors que Meta poursuit ses efforts pour attirer les créateurs de TikTok sur ses plateformes, il reste à voir si ces incitations financières seront suffisantes pour les détourner de l’application de vidéos courtes extrêmement populaire. La bataille pour les talents des créateurs entre les deux géants des médias sociaux va probablement s’intensifier alors que l’incertitude entourant l’avenir de TikTok aux États-Unis persiste.
Quatre nouvelles lois viseront à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’intelligence artificielle (IA), a annoncé le gouvernement.
4–6 minutes
Le ministère de l’Intérieur a déclaré que le Royaume-Uni serait le premier pays au monde à rendre illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer du matériel d’abus sexuel sur mineur (CSAM), avec une peine pouvant aller jusqu’à cinq ans de prison.
La possession de manuels pédophiles basés sur l’IA – qui enseignent aux gens comment utiliser l’IA pour commettre des abus sexuels – sera également rendue illégale, et les contrevenants seront passibles d’une peine allant jusqu’à trois ans de prison.
« Ce que nous constatons, c’est que l’IA dope désormais la maltraitance des enfants en ligne », a déclaré la ministre de l’Intérieur Yvette Cooper à l’émission Sunday with Laura Kuenssberg de la BBC.
Cooper a déclaré que l’intelligence artificielle « industrialisait l’ampleur » des abus sexuels contre les enfants et que les mesures gouvernementales « pourraient devoir aller plus loin ».
D’autres lois devraient être introduites, notamment celle qui rendrait punissable la gestion de sites Internet sur lesquels des pédophiles peuvent partager des contenus pédophiles ou donner des conseils sur la manière de manipuler les enfants. Cette infraction serait passible d’une peine pouvant aller jusqu’à 10 ans de prison.
La police des frontières sera également habilitée à ordonner aux personnes soupçonnées de présenter un risque sexuel pour les enfants de déverrouiller leurs appareils numériques pour inspection lorsqu’elles tentent d’entrer au Royaume-Uni, car les images d’abus sexuels sur mineurs sont souvent filmées à l’étranger. Selon la gravité des images, cette infraction sera passible d’une peine pouvant aller jusqu’à trois ans de prison.
Les images d’abus sexuels sur mineurs générées artificiellement sont des images générées en partie ou entièrement par ordinateur. Un logiciel peut « rendre inutilisables » les images réelles et remplacer le visage d’un enfant par celui d’un autre, créant ainsi une image réaliste.
Dans certains cas, les voix réelles d’enfants sont également utilisées, ce qui signifie que des survivants innocents d’abus sont à nouveau victimisés.
De fausses images sont également utilisées pour faire chanter les enfants et forcer les victimes à subir de nouveaux abus.
L’Agence nationale de lutte contre la criminalité (NCA) a déclaré que 800 arrestations étaient effectuées chaque mois en lien avec des menaces proférées contre des enfants en ligne. Elle a déclaré que 840 000 adultes constituent une menace pour les enfants à l’échelle nationale – en ligne et hors ligne – ce qui représente 1,6 % de la population adulte.
Cooper a déclaré : « Il y a des auteurs qui utilisent l’IA pour les aider à mieux préparer ou faire chanter des adolescents et des enfants, en déformant les images et en les utilisant pour inciter les jeunes à subir d’autres abus, ce qui provoque des choses encore plus horribles et devient également plus sadique. »
Elle a poursuivi : « C’est un domaine dans lequel la technologie ne s’arrête pas et notre réponse ne peut pas s’arrêter pour assurer la sécurité des enfants. »
Certains experts estiment cependant que le gouvernement aurait pu aller plus loin.
La professeure Clare McGlynn, experte en matière de réglementation juridique de la pornographie, de la violence sexuelle et des abus en ligne, a déclaré que les changements étaient « bienvenus » mais qu’il existait « des lacunes importantes ».
Le gouvernement devrait interdire les applications de « nudification » et s’attaquer à la « normalisation de l’activité sexuelle avec des filles d’apparence jeune sur les sites pornographiques grand public », a-t-elle déclaré, décrivant ces vidéos comme des « vidéos simulées d’abus sexuels sur des enfants ».
Ces vidéos « impliquent des acteurs adultes mais ils ont l’air très jeunes et sont montrées dans des chambres d’enfants, avec des jouets, des nattes, des appareils dentaires et d’autres signes de l’enfance », a-t-elle déclaré. « Ce matériel peut être trouvé avec les termes de recherche les plus évidents et légitime et normalise les abus sexuels sur mineurs. Contrairement à de nombreux autres pays, ce matériel reste légal au Royaume-Uni. »
L’Internet Watch Foundation (IWF) prévient que de plus en plus d’images d’abus sexuels sur des enfants sont produites par l’IA, et qu’elles deviennent de plus en plus courantes sur le Web ouvert.
Les dernières données de l’association montrent que les signalements de CSAM générés par l’IA ont augmenté de 380 %, avec 245 signalements confirmés en 2024 contre 51 en 2023. Chaque rapport peut contenir des milliers d’images.
L’année dernière, une étude a révélé que sur une période d’un mois, 3 512 images d’abus et d’exploitation sexuelle d’enfants ont été découvertes sur un site Web sombre. Par rapport au mois de l’année précédente, le nombre d’images de la catégorie la plus grave (catégorie A) a augmenté de 10 %.
Les experts affirment que les images CSAM générées par l’IA peuvent souvent paraître incroyablement réalistes, ce qui rend difficile de distinguer le vrai du faux.
Le directeur général par intérim de l’ IWF, Derek Ray-Hill, a déclaré : « La disponibilité de ce contenu d’IA alimente davantage la violence sexuelle contre les enfants.
« Cela encourage les agresseurs et rend les enfants plus vulnérables. Il reste certainement beaucoup à faire pour empêcher l’exploitation de la technologie de l’IA, mais nous saluons cette annonce et pensons que ces mesures constituent un point de départ essentiel. »
Lynn Perry, directrice générale de l’association caritative pour les enfants Barnardo’s, a salué l’action du gouvernement pour lutter contre le matériel d’abus d’enfants produit par l’IA, « qui normalise les abus envers les enfants, mettant davantage d’entre eux en danger, en ligne et hors ligne ».
« Il est essentiel que la législation suive le rythme des avancées technologiques pour prévenir ces crimes horribles », a-t-elle ajouté.
« Les entreprises technologiques doivent s’assurer que leurs plateformes sont sûres pour les enfants. Elles doivent prendre des mesures pour introduire des mesures de protection plus strictes, et l’Ofcom doit veiller à ce que la loi sur la sécurité en ligne soit mise en œuvre de manière efficace et rigoureuse. »
Les nouvelles mesures annoncées seront introduites dans le cadre du projet de loi sur la criminalité et la police lorsqu’il sera présenté au Parlement dans les prochaines semaines.
Un rapport divulgué par le gouvernement britannique qualifie les inquiétudes concernant une « police à deux vitesses » d’extrémistes.
2–3 minutes
Ce que l’on appelle aujourd’hui la « police à deux vitesses » au Royaume-Uni – la pratique présumée consistant à traiter plus durement un groupe de manifestants que les autres, en fonction de leurs opinions politiques – a été rejetée dans un rapport du ministère de l’Intérieur comme étant « un discours d’extrême droite ».
Sans surprise, ceux dont divers politiciens, militants et médias disent depuis des années qu’ils sont désapprouvés par les autorités en raison de la manière dont leurs manifestations sont gérées, ont tout simplement été qualifiés d’« extrême droite ».
La « police à deux vitesses », qui suggère l’instauration délibérée de deux séries de règles pour un groupe de personnes exprimant publiquement leur mécontentement, a fait ses débuts lors des manifestations de BLM à l’époque du Covid, lorsque les forces de l’ordre britanniques ont été critiquées pour leur « politique de police laxiste ».
Et cela a culminé l’été dernier lorsque le traitement des manifestants après les tueries de Southport a été considéré comme excessivement dur, résumé par le propriétaire de X, Elon Musk, qualifiant le Premier ministre travailliste britannique Keir Starmer de « Keir à deux vitesses ».
Et maintenant, le cabinet de Starmer a été dévoilé pour avoir (comme on pouvait s’y attendre) minimisé et tenté de délégitimer les critiques de ce type , en les faisant croire qu’elles émanent de « l’extrême droite » – et cela se produit dans un rapport baptisé Rapid Analytical Sprint, que le cabinet actuel du Royaume-Uni a commandé afin de « cartographier les menaces extrémistes ».
Le rapport recommande au gouvernement de prêter moins d’attention aux menaces liées à l’islamisme – même si, au cours des 15 dernières années, 94 % des décès liés à des activités terroristes ont été commis par des islamistes.
Mais le document divulgué suggère que le gouvernement britannique devrait prêter davantage attention à d’autres « comportements préoccupants », la misogynie étant citée comme l’un d’entre eux.
Un autre point soulevé dans ces recommandations est de revenir sur la décision du gouvernement précédent d’enregistrer moins d’« incidents haineux non criminels » – même si cela aussi a été difficilement obtenu du cabinet conservateur.
Aujourd’hui, ce nouvel ensemble de mesures recommandées inquiète ses opposants, qui craignent qu’il n’entraîne une perte de capacité à attraper ceux qui représentent un réel danger pour la population, ou encore une suppression de la liberté d’expression.
« Cette nouvelle approche risque de submerger les intervenants de la lutte contre l’extrémisme et la police antiterroriste, déjà surchargés, avec des dizaines, voire des centaines de milliers de nouveaux cas, ce qui augmente le risque que des personnes dangereuses ne soient pas détectées », ont déclaré Paul Stott et Andrew Gilligan de Policy Exchange.
Ils ont ajouté que « certaines définitions de l’extrémisme menacent également la liberté d’expression et le débat politique légitime ».
Les autorités poussent les géants de la technologie à censurer le contenu, contournant ainsi les préoccupations concernant la liberté de la presse et la préservation des preuves.
2–3 minutes
Le gouvernement britannique continue d’utiliser les meurtres de Southport l’année dernière , qui ont conduit à des manifestations généralisées, pour promouvoir la censure en ligne, comme une prétendue panacée aux maux de la société.
La ministre de l’Intérieur Yvette Cooper et le secrétaire d’État à la Science, à l’Innovation et à la Technologie Peter Kyle ont récemment écrit à X, Meta, TikTok, Google (et YouTube) pour leur demander de supprimer le « matériel violent » auquel le tueur de trois enfants, Axel Rudakubana, a pu accéder avant de commettre son crime.
Les enquêteurs ont déclaré que parmi ces documents figuraient une étude universitaire d’un manuel de formation utilisé par les membres d’Al-Qaïda et une vidéo de l’attaque en Australie contre l’évêque Mari Emmanuel.
Cooper et Kyle ont déclaré aux entreprises technologiques que la « possession » de ce matériel est illégale selon la législation antiterroriste du Royaume-Uni, mais qu’il était « facilement accessible » à Rudakubana et continue de l’être à d’autres.
Les deux responsables ont également déclaré à ces entreprises que leur responsabilité de supprimer ce contenu était « morale ».
Le même argument a été avancé par la chancelière de l’Échiquier britannique Rachel Reeves, qui a déclaré à la BBC que même si la loi sur la censure – Online Safety Act – qui obligerait à supprimer ces contenus sera en vigueur à partir de mars, « rien n’empêche les entreprises de supprimer ces contenus dès maintenant. Elles ont la responsabilité morale de le faire. »
Aucun de ces responsables n’a cependant abordé la question des dangers liés à la suppression de vidéos montrant un contenu violent qui mérite d’être publié ou qui pourrait être utilisé comme preuve, par exemple, d’un abus de pouvoir de la police, d’une incapacité à réagir correctement lors d’événements violents, mais aussi pour les exonérer de fausses accusations (comme dans le cas récent de l’incident de l’aéroport de Manchester).
Beeban Kidron, connu pour être un partisan de la censure et de la vérification de l’âge en ligne et membre de la Chambre des Lords, s’est également exprimé au nom de la BBC pour se plaindre du fait que le précédent gouvernement conservateur avait bloqué la disposition de censure du « devoir de diligence » de l’Online Safety Act, et a reproché au cabinet travailliste actuel de « ne pas tenir les promesses qu’il avait faites dans l’opposition ».
Kidron a cependant omis de mentionner que le gouvernement précédent était, quel que soit le cas auquel elle faisait référence, très favorable à un renforcement de la censure en ligne.
Claire Fox, une autre membre de la Chambre des Lords, a réagi à la tendance à faire pression sur les plateformes pour qu’elles suppriment les « contenus extrêmes » ou « risquent un deuxième Southport » en quelques mots choisis publiés sur X :
« Il n’y a pas un seul problème – politique, culturel, économique, social – dont le gouvernement travailliste ne pense pas que la solution soit de mettre fin au débat. Leur mantra technocratique ennuyeux – qui ne cesse de se répéter – est « on ne peut pas dire ça ». Ce sont vraiment des scélérats macabres et censeurs. Méprisables. »
Le mythique groupe est représenté par la chanson «Now and Then», permise par l’intelligence artificielle.
3–4 minutes
Une fresque représentant les Beatles, «chez eux», à Liverpool.AFP
Cette année aux Grammy Awards, les nominés au prestigieux prix du meilleur enregistrement comprennent des poids lourds contemporains comme Beyoncé et Kendrick Lamar, mais aussi les Beatles, séparés depuis plus de cinquante ans.
Une prouesse permise par l’intelligence artificielle, qui a inévitablement déclenché une polémique.
Le mythique groupe britannique a sorti une nouvelle chanson «Now and Then», alors que seuls deux de ses membres sont encore en vie. Contrairement aux craintes des fans, le morceau ne comprend aucun «deepfake» imitant les Beatles.
L’intelligence artificielle a simplement été utilisée sur une démo remplie de bruits parasites, enregistrée il y a des décennies, ce qui a permis d’isoler la voix de John Lennon.
Les créateurs y ont ensuite ajouté des guitares électriques et acoustiques enregistrées en 1995 par George Harrison, puis ont complété la chanson avec la batterie de Ringo Starr et la basse, le piano et la guitare slide de Paul McCartney, ainsi que des chœurs supplémentaires.
«Rien n’a été créé artificiellement» sur cette chanson, a d’ailleurs insisté Paul McCartney.
Seuls les créateurs humains sont éligibles»
Mais la nomination de «Now and Then» pour le prix du meilleur enregistrement et celui de la meilleure performance aux Grammy Awards, qui auront lieu dimanche à Los Angeles, a quand même fait tiquer de nombreux aficionados.
L’usage de l’IA provoque de nombreux débats éthiques dans l’industrie. En 2023, l’Académie des Grammys s’est dotée d’une règle selon laquelle «seuls les créateurs humains sont éligibles» pour ses prestigieux prix.
«Une œuvre qui ne contient aucun auteur humain n’est éligible dans aucune catégorie», stipule le règlement.
Autrement dit, les chansons générées entièrement grâce à l’IA sont automatiquement exclues. Mais le règlement prévoit une clause qui permet aux chansons d’origine humaine, simplement polies par IA, d’être considérées.
Pour Mary Bragg, auteure, compositrice et interprète de Nashville (Tennessee), la polémique autour de «Now and Then» est exagérée.
«Une pente glissante»
La technologie utilisée sur ce titre est une «révélation» dans l’univers des ingénieurs sons. Mais cette évolution n’est qu’un prolongement naturel des techniques utilisées habituellement pour produire un morceau.
S’il est ici respectueux, l’usage de l’IA reste toutefois «une pente glissante», rappelle Mme Bragg à l’AFP. «Si l’intégrité de l’art n’est pas préservée, c’est là que le bât blesse.»
La technologie fait craindre que des œuvres soient utilisées sans autorisation pour former des logiciels d’IA, ou que des artistes voient leur voix dupliquée sans leur consentement.
Des inquiétudes tout à fait légitimes, mais qui ne s’appliquent pas au nouveau morceau des Beatles, rappelle Linda Bloss-Baum, membre du conseil d’administration de l’association Songwriters of North America.
«L’IA peut avoir beaucoup de conséquences négatives pour les artistes, mais c’est un exemple de quelque chose de vraiment bon», estime l’experte, en soulignant que la chanson a été recréée avec l’aval de la famille de John Lennon.
Pour elle, «Now and Then» est «un très bon exemple de la manière dont l’IA peut profiter aux artistes, s’ils le souhaitent.»
«Let It Be» en 1971
Un demi-siècle après leur séparation, les Beatles se retrouvent donc en lice pour le prix du meilleur enregistrement pour la cinquième fois – leur dernière nomination dans cette catégorie remonte à 1971, pour «Let It Be».
Ils n’ont jamais remporté ce trophée, tout comme leurs concurrents Beyoncé et Kendrick Lamar.
Certains fans et observateurs se sont interrogés sur la pertinence de faire concourir des artistes d’époques si différentes dans la même catégorie. Comment choisir un vainqueur lorsque tant d’années musicales séparent les univers des concurrents ?
Mais les Grammys, décernés par les professionnels de l’industrie, nourrissent souvent des réflexions éloignées du grand public.
Le prix de l’enregistrement de l’année n’est ainsi pas seulement décerné à un artiste, rappelle Mme Bragg. Il récompense aussi les ingénieurs du son et les producteurs de l’œuvre.
Dans cette perspective, inclure les Beatles dans cette catégorie est «un clin d’œil au futur probable du monde de l’enregistrement».
Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, en fonction de la quantité d’intervention humaine et de créativité utilisée dans chaque pièce.
1–2 minutes
Le Bureau américain des droits d’auteur a décidé mercredi que les artistes peuvent protéger par le droit d’auteur certaines œuvres créées à l’aide de l’intelligence artificielle (IA), à condition que la créativité humaine soit également impliquée.
Le rapport intervient alors que le bureau reçoit environ un demi-million de demandes de droits d’auteur par an et qu’il est de plus en plus souvent sollicité pour enregistrer des œuvres générées par l’IA, selon l’Associated Press .
Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, mais qu’il prendrait les décisions en examinant la quantité d’apport humain et de créativité utilisée dans chaque pièce.
« Le droit d’auteur s’est depuis longtemps adapté aux nouvelles technologies et peut permettre de déterminer au cas par cas si les résultats générés par l’IA reflètent une contribution humaine suffisante pour justifier la protection du droit d’auteur », peut-on lire dans le rapport. « L’utilisation d’une machine comme outil ne nie pas la protection du droit d’auteur, mais l’œuvre qui en résulte n’est protégée par le droit d’auteur que si elle contient suffisamment d’éléments expressifs créés par l’homme. »
Le rapport indique que les images entièrement générées par l’IA ne peuvent pas être protégées par le droit d’auteur, et que les personnes ne peuvent pas non plus protéger par le droit d’auteur les images ou les œuvres d’art qu’elles ont demandées à partir de boîtes de discussion ou de générateurs d’images d’IA, comme les modifications ou la fusion d’images préexistantes.
« Étendre la protection aux contenus dont les éléments expressifs sont déterminés par une machine… porterait atteinte aux objectifs constitutionnels du droit d’auteur plutôt que de les promouvoir », a déclaré dans un communiqué Shira Perlmutter, registraire des droits d’auteur et directrice du bureau américain du droit d’auteur.
DeepSeek propose une IA générative open source avec un stockage de données localisé, mais soulève des inquiétudes concernant la censure, la confidentialité et la perturbation des marchés occidentaux.
5–7 minutes
Généré par IA
Une récente répression réglementaire aux États-Unis contre TikTok, une plateforme de médias sociaux détenue par des Chinois, a déclenché une vague de migration des utilisateurs vers une autre application chinoise, Rednote . Aujourd’hui, un autre acteur important est sous le feu des projecteurs : DeepSeek, une plateforme d’intelligence artificielle générative (IA) développée par la Chine, qui gagne rapidement du terrain. La popularité croissante de DeepSeek soulève des questions sur l’efficacité des interdictions comme celle de TikTok et leur capacité à limiter l’utilisation des services numériques chinois par les Américains.
Le président Donald Trump a attiré l’attention sur un récent développement de l’IA chinoise, le décrivant comme un « signal d’alarme » pour l’industrie technologique américaine.
S’adressant aux législateurs républicains en Floride lundi soir, le président a souligné la nécessité pour l’Amérique de renforcer son avantage concurrentiel face aux avancées technologiques de la Chine.
Lors de l’événement, Trump a fait référence au lancement de DeepSeek AI, soulignant ses implications potentielles pour le paysage technologique mondial. « La semaine dernière, j’ai signé un décret révoquant les réglementations destructrices de Joe Biden sur l’intelligence artificielle afin que les entreprises d’IA puissent à nouveau se concentrer sur le fait d’être les meilleures, et pas seulement les plus éveillées », a déclaré Trump. Il a poursuivi en expliquant qu’il avait suivi de près les développements du secteur technologique chinois, notamment les rapports sur une approche plus rapide et plus rentable de l’IA.
« C’est une bonne chose, car cela ne nécessite pas de dépenser autant d’argent », a fait remarquer M. Trump, ajoutant que même si les allégations concernant cette percée chinoise restent non vérifiées, l’idée d’obtenir des résultats similaires à moindre coût pourrait être considérée comme une opportunité pour les entreprises américaines. Il a souligné que « la sortie de DeepSeek AI par une entreprise chinoise devrait être un signal d’alarme pour nos industries, nous devons nous concentrer sur la compétition pour gagner, car nous avons les meilleurs scientifiques du monde. »
M. Trump a également souligné ce qu’il considère comme une reconnaissance par la Chine de la domination américaine en matière de talents scientifiques et d’ingénierie. « C’est très inhabituel, quand vous entendez parler de DeepSeek, quand vous entendez quelqu’un proposer quelque chose, nous avons toujours les idées », a-t-il déclaré. « Nous sommes toujours les premiers. Je dirais donc que c’est un élément positif qui pourrait constituer une évolution très positive. »
L’application DeepSeek a été lancée la semaine dernière.
DeepSeek, créé par un laboratoire de recherche chinois en IA soutenu par un fonds spéculatif, a fait sensation avec son modèle d’IA générative open source. La plateforme rivalise avec les offres des principaux développeurs américains, dont OpenAI. Pour contourner les sanctions américaines sur le matériel et les logiciels, l’entreprise aurait mis en œuvre des solutions innovantes lors du développement de ses modèles.
L’approche de DeepSeek sur les sujets sensibles soulève de sérieuses inquiétudes quant à la censure et à la manipulation de l’information. En reprenant les discours approuvés par l’État et en évitant les discussions sur des sujets politiquement sensibles comme la place Tiananmen ou l’association satirique de Winnie l’ourson avec Xi Jinping, DeepSeek illustre comment l’IA peut être utilisée pour renforcer les messages contrôlés par le gouvernement.
Cette présentation sélective des faits, ou leur omission pure et simple, prive les utilisateurs d’une compréhension plus complète des événements cruciaux et étouffe la diversité des points de vue. De telles pratiques non seulement limitent la libre circulation de l’information, mais normalisent également la propagande sous couvert de favoriser un « cyberespace sain », remettant en question les implications éthiques du déploiement d’une IA qui privilégie la conformité politique au détriment de la vérité et du dialogue ouvert.
Bien que DeepSeek propose plusieurs options pour accéder à ses modèles d’IA, y compris des versions locales téléchargeables, la plupart des utilisateurs s’appuient sur ses applications mobiles ou son interface de chat Web.
La plateforme propose des fonctionnalités telles que la réponse aux requêtes, les recherches sur le Web et les réponses raisonnées détaillées. Cependant, les inquiétudes concernant la confidentialité des données et la censure augmentent à mesure que DeepSeek collecte de nombreuses informations et a été observé en train de censurer des contenus critiques envers la Chine.
Les pratiques de DeepSeek en matière de données suscitent l’inquiétude des défenseurs de la vie privée. La politique de confidentialité de l’entreprise stipule explicitement : « Nous stockons les informations que nous collectons sur des serveurs sécurisés situés en République populaire de Chine. »
Cela inclut les données envoyées par les utilisateurs, telles que les messages de chat, les invites, les fichiers téléchargés et l’historique des conversations. Bien que les utilisateurs puissent supprimer l’historique des conversations via l’application, les experts en confidentialité soulignent les risques liés au partage d’informations sensibles avec de telles plateformes.
DeepSeek collecte également d’autres informations personnelles, telles que les adresses e-mail, les numéros de téléphone et les données des appareils, y compris les systèmes d’exploitation et les adresses IP. Il utilise des technologies de suivi, telles que les cookies, pour surveiller l’activité des utilisateurs. De plus, les interactions avec les annonceurs peuvent entraîner le partage d’identifiants mobiles et d’autres informations avec la plateforme. L’analyse de l’activité Web de DeepSeek a révélé des liens avec Baidu et d’autres sociétés d’infrastructure Internet chinoises.
Bien que de telles pratiques soient courantes dans le secteur de l’IA, les préoccupations en matière de confidentialité sont renforcées par le stockage des données de DeepSeek en Chine, où des lois strictes sur la cybersécurité permettent aux autorités d’exiger l’accès aux informations détenues par l’entreprise.
L’option la plus sûre consiste à exécuter des versions locales ou auto-hébergées des modèles d’IA, qui empêchent la transmission des données au développeur.
Et avec Deepseek, c’est simple car ses modèles sont open source.
L’IA open source se distingue comme l’approche supérieure de l’intelligence artificielle car elle favorise la transparence, la collaboration et l’accessibilité. Contrairement aux systèmes propriétaires, qui fonctionnent souvent comme des boîtes noires opaques, l’IA open source permet à quiconque d’examiner son code, garantissant ainsi la responsabilité et réduisant les biais. Cette transparence renforce la confiance, tandis que la nature collaborative du développement open source accélère l’innovation en permettant aux chercheurs et aux développeurs du monde entier de contribuer aux modèles existants et de les améliorer.
De plus, l’IA open source démocratise l’accès aux technologies de pointe, permettant aux startups, aux chercheurs et aux régions sous-financées d’exploiter le potentiel de l’IA sans les barrières financières des systèmes propriétaires.
Il empêche également le contrôle monopolistique en décentralisant le développement de l’IA, réduisant ainsi la domination de quelques géants de la technologie.
Le système de paiement biométrique russe renforce les inquiétudes concernant la surveillance et la sécurité des données.
2–3 minutes
Généré par IA
La Russie se prépare à lancer d’ici 2025 un système complet de paiement par reconnaissance faciale, dans le but de créer l’un des plus grands réseaux de paiement biométrique au monde. Cette initiative s’appuiera sur la plateforme Face Pay existante, qui a été progressivement mise en œuvre depuis 2021 et est le fruit d’un effort conjoint de la Sberbank et du National Payment Card System (NSPK). Pour soutenir le déploiement, environ deux millions de terminaux de paiement biométriques devraient être installés dans tout le pays.
Le projet devrait débuter avec un déploiement initial dans le métro de Moscou en 2024. Face Pay , déjà utilisé dans le métro de Moscou et dans plusieurs autres villes comme Kazan et Nijni Novgorod, permet aux usagers d’effectuer des paiements en scannant leur visage. D’ici le second semestre 2025, le système s’étendra à tout le pays, permettant aux utilisateurs d’enregistrer leurs données biométriques via leurs applications bancaires et d’effectuer des paiements sur n’importe quel terminal, quelle que soit leur banque.
Dmitry Malykh, vice-président senior de Sber, a confirmé le calendrier en déclarant : « La feuille de route du projet a déjà été établie et le lancement du réseau est prévu pour le second semestre 2025. Nous développons une norme de paiement biométrique, sur la base de laquelle d’autres acteurs du marché pourront lancer leurs services biométriques. »
Cette initiative sera également intégrée au système biométrique unifié russe (UBS), une base de données gérée par l’État qui centralise les données biométriques à des fins d’identification et d’authentification. Depuis 2022, les banques publiques sont tenues de transférer les informations biométriques de leurs clients à ce système. Cependant, l’adoption par les utilisateurs est lente, la base de données UBS n’ayant pas encore dépassé les trois millions d’utilisateurs, ce qui reflète la résistance du public et les préoccupations potentielles en matière de confidentialité.
Le gouvernement envisage ce système comme bien plus qu’une simple plateforme de paiement. Parmi les fonctionnalités prévues figurent la vérification de l’âge des utilisateurs pour les achats restreints et l’enregistrement sans contact dans les hôtels.
Il est également prévu de prendre en charge des méthodes de paiement alternatives, notamment les transactions en cryptomonnaie, rendant ainsi la plateforme adaptable aux technologies financières émergentes.
De nombreuses personnes s’inquiètent de la double utilisation du système, la technologie de reconnaissance faciale ayant déjà été utilisée pour aider les forces de l’ordre à traquer les dissidents politiques. Bien que commercialisée comme un outil pratique, son intégration dans les réseaux de surveillance met en évidence des risques importants pour la vie privée.
Une fois entièrement déployé, ce système permettra aux particuliers d’effectuer des paiements par reconnaissance faciale de manière transparente entre différentes banques, marquant ainsi l’étape la plus ambitieuse dans la démarche de la Russie vers une infrastructure financière basée sur la biométrie
Une influenceuse des médias sociaux accusée d’avoir filmé la torture de son bébé pour gagner de l’argent et des clics, aurait fabriqué des symptômes poussant l’enfant à subir une opération au cerveau, a entendu un magistrat.
3–5 minutes
Une image du service de police du Queensland montre l’accusé arrêté le 16 janvier. Avec l’aimable autorisation du service de police du Queensland
Une influenceuse des médias sociaux accusée d’avoir filmé la torture de son bébé pour gagner de l’argent et des clics, aurait fabriqué des symptômes poussant l’enfant à subir une opération au cerveau, a entendu un magistrat.
La femme de 34 ans, dont l’identité ne peut être révélée pour des raisons juridiques, a demandé une libération sous caution au tribunal de Brisbane mardi.
Elle est apparue en personne, vêtue d’une robe bleu clair et de sandales à lanières de cuir, sous la surveillance de deux gardes des services correctionnels.
La femme était assise, les mains sur les genoux, faisant face directement au magistrat alors qu’elle était confinée au banc des accusés.
La police du Queensland accuse la femme d’avoir donné à son enfant d’un an des médicaments sur ordonnance et en pharmacie non autorisés entre août et octobre 2024 pour développer son profil sur les réseaux sociaux et gagner 60 000 $ de dons.
Le procureur de la Couronne, Jack Scott, s’est opposé à la libération sous caution et a déclaré au magistrat Stephen Courtney que la femme avait déplacé une caméra vidéo qui surveillait l’enfant pendant un test d’activité cérébrale « pour éviter d’être détectée ».
La femme était assise, les mains sur les genoux, faisant face directement au magistrat alors qu’elle était confinée au banc des accusés.
La police du Queensland accuse la femme d’avoir donné à son enfant d’un an des médicaments sur ordonnance et en pharmacie non autorisés entre août et octobre 2024 pour développer son profil sur les réseaux sociaux et gagner 60 000 $ de dons.
Le procureur de la Couronne, Jack Scott, s’est opposé à la libération sous caution et a déclaré au magistrat Stephen Courtney que la femme avait déplacé une caméra vidéo qui surveillait l’enfant pendant un test d’activité cérébrale « pour éviter d’être détectée ».
« Elle a été filmée avec une seringue. Elle a administré le médicament par sonde nasogastrique. Elle a profité de l’occasion pour se cacher sous une couverture », a déclaré Scott.
« Environ 30 à 40 minutes après cet incident, (l’enfant) était complètement inconscient. »
La femme a été placée en détention provisoire lors de sa première comparution devant le tribunal le 17 janvier après son arrestation dans une banlieue au sud de Brisbane.
La femme a été accusée d’avoir administré du poison avec l’intention de nuire, de quatre chefs d’accusation d’administration de poison avec l’intention de nuire et de mettre en danger la vie d’autrui, de fabrication de matériel d’exploitation d’enfants, de trois chefs d’accusation de préparation en vue de commettre des crimes et de torture.
Scott a déclaré que l’accusation de matériel d’exploitation d’enfants était liée à des vidéos prétendument trouvées sur le téléphone de la femme et qu’elle avait causé des complications mettant sa vie en danger.
« Cet enfant n’aurait pas dû subir (deux séries d’opérations chirurgicales du cerveau) à ce stade sans cette fabrication de symptômes », a déclaré le procureur.
L’avocat de la défense Mathew Cuskelly a fait valoir que son client n’avait jamais été reconnu coupable d’aucun crime et qu’il était confronté à un procès qui pourrait durer deux ou trois ans.
Cuskelly a déclaré que le dossier de l’accusation pouvait paraître solide, mais qu’une enquête plus approfondie pourrait démontrer le contraire.
« Les risques peuvent être suffisamment atténués », a-t-il déclaré à propos des conditions de mise en liberté sous caution.
Le magistrat a déclaré que l’enfant avait été diagnostiqué avec des tumeurs bénignes dans plusieurs organes et avait commencé à souffrir de crises d’épilepsie.
« L’avis médical a suspecté que le médicament prescrit déclenchait des crises. Le traitement a été arrêté », a déclaré Courtney.
« La (femme) avait toujours une ordonnance… le médicament était toujours présent dans son organisme avec d’autres drogues. »
Cuskelly a déclaré qu’un courriel des autorités sanitaires indiquait que l’enfant « continue de présenter des symptômes » de convulsions.
Courtney a déclaré qu’il ne serait pas en mesure de prendre une décision mardi en raison de la complexité des allégations.
« La mise en liberté sous caution est normalement une affaire simple. Ce n’est pas le cas », a-t-il déclaré.
La demande de mise en liberté sous caution a été ajournée à mercredi.
Bill Gates a ouvertement critiqué son collègue milliardaire de la technologie Elon Musk pour son implication dans la promotion de la politique conservatrice aux États-Unis et des partis souverainistes en Europe. Gates a fustigé Musk pour la « merde insensée » qu’il ose soutenir en opposition directe avec le programme mondialiste extrême de Gates.
2–3 minutes
Généré par IA
Dans une interview au Times de Londres , Bill Gates, cofondateur de Microsoft, harceleur sexuel au sein des entreprises et militant d’extrême gauche , a exprimé ses inquiétudes quant à l’influence d’Elon Musk sur la politique de plusieurs pays. Gates a qualifié les actions d’Elon Musk de « dingues », soulignant la nécessité pour les pays d’adopter des mesures de protection pour empêcher les étrangers fortunés d’interférer dans leurs élections.
« C’est vraiment insensé qu’il puisse déstabiliser la situation politique dans certains pays », a déclaré Gates au journal. « Je pense qu’aux États-Unis, les étrangers ne sont pas autorisés à donner de l’argent ; d’autres pays devraient peut-être adopter des mesures de protection pour s’assurer que les étrangers super riches ne faussent pas leurs élections. » Il convient de noter que Gates n’a jamais critiqué les actions du milliardaire de gauche George Soros, qui a faussé les élections aux États-Unis.
Elon Musk, qui fait désormais partie du cercle intime du président Donald Trump et aurait dépensé plus de 250 millions de dollars pour sa campagne, a également fait part de ses opinions politiques dans d’autres pays. Il a critiqué le Premier ministre britannique Keir Starmer et le parti travailliste de centre-gauche, tout en prodiguant des conseils au parti de droite Reform UK, en leur suggérant de remplacer le leader Nigel Farage.
De plus, Elon Musk s’est récemment adressé à distance au parti d’extrême droite allemand Alternative pour l’Allemagne (AfD), les encourageant à « être fiers de l’Allemagne » et à ne pas se sentir coupables des actions de leurs ancêtres. Gates a qualifié les actions d’Elon Musk de « propagande populiste » et a exprimé sa désapprobation en déclarant : « Vous voulez promouvoir l’aile droite mais vous dites que Nigel Farage n’est pas assez à droite… Je veux dire, c’est de la folie. Vous êtes pour l’AfD [en Allemagne] ».
Au cours de l’entretien, Gates a également partagé des détails sur un dîner de trois heures qu’il a eu avec le président Trump à Mar-a-Lago le mois dernier. Il a décrit la conversation comme « assez intéressante », notant que Trump avait écouté attentivement Gates discuter de sujets tels que le VIH, la nécessité d’une générosité continue, l’innovation dans la recherche d’un remède, la polio, l’énergie et l’énergie nucléaire. Gates a mentionné que Trump « n’a pas été dédaigneux » pendant leur discussion, qualifiant la rencontre de « plutôt constructive ».
La crise climatique mise à part, une nouvelle fausse urgence fait rage en ville.
2–3 minutes
Généré par IA
À Davos, Guterres dénonce le recul des engagements climatiques
22 janvier 2025
L’élite politique et économique mondiale présente mercredi à Davos a dû faire face à un discours sans compromis du secrétaire général de l’ONU, António Guterres, alors qu’il évoquait le manque de collaboration multilatérale dans un « monde de plus en plus sans gouvernail » menacé par deux dangers existentiels : le changement climatique et l’intelligence artificielle (IA) non réglementée.
…
« Dépendance aux énergies fossiles »
Comparant la dépendance aux combustibles fossiles au monstre de Frankenstein – « n’épargnant rien ni personne » – le Secrétaire général a noté l’ironie du fait que 13 des plus grands ports du monde pour les superpétroliers soient sur le point d’être submergés par la montée du niveau de la mer, une conséquence de la hausse des températures et de la fonte des glaces marines, causée en grande partie par la combustion du charbon, du pétrole brut et du gaz naturel.
….
Les promesses insoupçonnées de l’IA
La prochaine menace existentielle, l’IA, est une arme à double tranchant, a poursuivi M. Guterres, car elle révolutionne déjà l’apprentissage, diagnostique les maladies, aide les agriculteurs à augmenter leurs rendements et améliore le ciblage de l’aide.
Mais si elle n’est pas maîtrisée, elle comporte de profonds risques : elle peut perturber les économies, saper la confiance dans les institutions et creuser les inégalités, a averti le Secrétaire général.
Bon, peut-être que par « la prochaine menace existentielle », l’ONU entendait simplement « une autre menace existentielle » . Mais c’est une tournure de phrase intéressante.
Bien sûr, il est évident depuis un certain temps que l’ONU aura besoin d’une nouvelle crise pour remplacer la crise climatique déjà fragile.
La fausse crise de l’intelligence artificielle a longtemps été un substitut évident à la fausse crise climatique, en raison de son attrait potentiellement bipartisan. Hollywood nous a préparé avec de nombreux films d’horreur sur l’intelligence artificielle qui dégénère.
Alors comment savons-nous que la crise de l’IA est fausse ?
Ce qui est révélateur, c’est que les personnes qui promeuvent les récits de crise de l’IA sont les mêmes qui ont promu toutes les autres fausses crises.
Alors que l’accent mis sur l’interdiction de TikTok a intensifié les discussions autour de l’influence chinoise dans la technologie américaine, une autre préoccupation est apparue concernant les menaces potentielles posées par certains produits électroniques grand public.
2–3 minutes
Généré par IA
Plus précisément, TP-Link, une marque leader de routeurs vendus sur Amazon, fait l’objet d’un examen minutieux de la part des organismes de réglementation en raison de vulnérabilités de sécurité qui pourraient mettre en péril les infrastructures américaines.
Selon CNBC , les experts craignent que ces appareils puissent être exploités par des acteurs malveillants pour mener des attaques sur des systèmes critiques ou compromettre des informations sensibles.
L’été dernier, les représentants Raja Krishnamoorthi (D-IL) et John Moolenaar (R-MI) ont adressé une lettre au ministère américain du Commerce soulignant ces problèmes.
Leur correspondance, rapportée par le Wall Street Journal, a suscité des inquiétudes quant aux « vulnérabilités inhabituelles » découvertes dans les routeurs TP-Link et aux implications du respect de la loi chinoise.
La lettre soulignait le risque potentiel présenté par l’utilisation de routeurs de petits bureaux/bureaux à domicile (SOHO) dans le cadre de cyberattaques de grande envergure contre les États-Unis, soulignant la nécessité de faire preuve de prudence.
Malgré ces inquiétudes, aucune mesure concrète n’a été mise en œuvre pour remédier à la situation. Le représentant Krishnamoorthi a exprimé son inquiétude quant à l’absence de plan visant à éliminer ces routeurs du marché, faisant référence à la précédente stratégie de « remplacement » du gouvernement utilisée contre les équipements réseau Huawei.
En 2020, le gouvernement a exigé que les entreprises éliminent les appareils Huawei en raison de risques pour la sécurité nationale, et les efforts pour leur retrait sont toujours en cours.
« Le membre du Congrès Krishnamoorthi a indiqué qu’il n’était au courant d’aucun plan visant à sortir les entités impliquées de leur situation actuelle.
Il a fait référence à l’initiative « arracher et remplacer » du gouvernement concernant les équipements réseau Huawei comme un modèle potentiel pour les actions futures.
En 2020, le gouvernement a ordonné aux entreprises de se débarrasser des équipements Huawei, considérés comme un risque pour la sécurité nationale. Les efforts visant à retirer ces équipements sont toujours en cours.
Le succès de l’entreprise semble suivre une stratégie historiquement employée par la Chine dans le secteur technologique : produire des excédents de produits pour les exporter à des prix plus bas, sapant ainsi la concurrence, tout en recherchant un accès potentiel par la porte dérobée à la technologie à des fins de disruption.
« Je réfléchis à la question de savoir si une approche similaire devrait être adoptée, notamment en ce qui concerne les agences de sécurité nationale, le ministère de la Défense et les services de renseignement », a fait remarquer le membre du Congrès Krishnamoorthi.
« Il est illogique que le gouvernement américain se procure des routeurs associés à des piratages visant des responsables européens et aux incidents du typhon Volt. »
Selon une nouvelle enquête du Washington Post , la police de tout le pays utilise abusivement les logiciels de reconnaissance faciale, s’appuyant sur eux pour arrêter des suspects sans preuves supplémentaires.
2–3 minutes
Généré par IA
La plupart des services de police ne sont pas tenus de divulguer ou de documenter son utilisation. Parmi les 23 services de police disposant de dossiers, 15 dans 12 États ont arrêté des suspects uniquement sur la base de correspondances obtenues par IA, violant souvent les politiques internes exigeant une corroboration.
Un rapport a qualifié de « correspondance à 100 % » une correspondance non vérifiée obtenue par l’IA, tandis qu’un autre a affirmé que la technologie avait « incontestablement » identifié un suspect. Au moins huit personnes ont été arrêtées à tort aux États-Unis en raison de correspondances obtenues par l’IA, dont deux n’avaient pas été signalées auparavant.
Toutes les affaires ont été classées sans suite, mais des mesures policières de base, comme la vérification des alibis ou la comparaison des preuves matérielles, auraient pu empêcher ces arrestations. L’ampleur réelle des fausses arrestations alimentées par l’IA reste inconnue, car la plupart des services de police n’ont pas d’obligations de divulgation et révèlent rarement l’utilisation de l’IA.
Le Post a identifié 75 services utilisant la reconnaissance faciale, et les enregistrements de 40 d’entre eux montrent que les arrestations sont liées à des correspondances obtenues par l’IA. Parmi ceux-ci, 23 ont fourni suffisamment de détails, révélant que près des deux tiers ont procédé à des arrestations sans preuve corroborante. Les services ont souvent refusé de discuter de leurs pratiques ou ont affirmé que les agents s’appuyaient sur leur jugement visuel pour confirmer les correspondances.
À Florence, dans le Kentucky, la police a eu recours à des correspondances non corroborées par l’IA dans au moins quatre cas, avec des résultats mitigés. Le procureur local Louis Kelly a défendu le jugement des policiers dans l’identification des suspects, y compris ceux signalés par l’IA.
Pour son rapport, le Washington Post a examiné l’utilisation de la reconnaissance faciale par 75 services de police, avec des enregistrements détaillés de 23 d’entre eux. Il a découvert que 15 services, dont Austin, Detroit et Miami, ont procédé à des arrestations uniquement sur la base de correspondances IA sans preuves indépendantes.
Certaines affaires n’étaient pas documentées ou transparentes, tandis que d’autres s’appuyaient sur des pratiques douteuses, comme la présentation de photos identifiées par l’IA à des témoins. Les entretiens ont permis de clarifier certains cas, mais le recours à l’IA non corroborée reste répandu.
Laisser un commentaire