« Cyborg 1.0 » : le premier Robocop au monde doté de la reconnaissance faciale et d’une vision à 360°

Les débuts ont été annoncés via une publication Facebook par la police royale thaïlandaise.

by Tyler Durden ZeroHedge

2–3 minutes
Le robocop a des caméras à la place des yeux… Police royale thaïlandaise/Facebook

La Thaïlande a lancé le premier « Robocop » au monde conçu pour détecter et prévenir la criminalité grâce à une IA avancée .

Équipé de caméras à 360 degrés, ce cyborg de pointe assure une surveillance constante en temps réel.  Baptisé « Police Colonel Nakhonpathom Plod Phai » , ce qui signifie « Nakhonpathom est en sécurité », ce robocop  a été dévoilé mercredi lors du festival de Songkran, dans la province de Nakhon Pathom . Son lancement a été annoncé via une publication Facebook de la police royale thaïlandaise, selon un article  du Sun.

Le robocop est également capable de détecter les armes, telles que les couteaux et les matraques en bois.  En Chine voisine, des robots humanoïdes ont commencé à soutenir les patrouilles de police.

Rapports d’ingénierie intéressants  :

À Shenzhen, des robots PM01 développés par EngineAI ont été déployés aux côtés des policiers, portant des gilets de haute visibilité. Selon les médias locaux, ces robots ont été vus en train d’interagir avec les piétons : saluts, poignées de main et commandes vocales. Une vidéo récente montre un robot PM01 saluant une foule, suscitant la curiosité quant à son utilité dans le maintien de l’ordre.

Lancé pour la première fois en décembre 2024, le PM01 offre une mobilité agile, un écran tactile interactif et une plateforme open source. Cette conception permet aux développeurs du monde entier de contribuer à son évolution en ajoutant de nouvelles fonctionnalités et capacités grâce au développement secondaire.

L’année dernière,  Logon Technology, une entreprise chinoise de robotique, a dévoilé le robot sphérique autonome RT-G, qualifié de « progrès technologique », avec une armée de ces robots sphériques aperçus dans les villes chinoises,  selon The Sun.  Les débuts du robot soulignent l’importance croissante de la technologie robotique. Lors de la réunion générale du premier trimestre 2025 de Tesla, le PDG Elon Musk a révélé que l’entreprise se préparait à lancer la production de son propre humanoïde, Optimus, cette année.

« Cette année, nous espérons pouvoir fabriquer environ 5 000 robots Optimus », a déclaré Musk. « Techniquement, nous visons suffisamment de pièces pour en fabriquer 10 000, voire 12 000, mais comme il s’agit d’un produit totalement nouveau, avec un design totalement nouveau, je dirai que nous aurons réussi si nous parvenons à atteindre la moitié des 10 000. »

« Mais même 5 000 robots, c’est la taille d’une légion romaine, pour info, ce qui est un peu effrayant. Une légion entière de robots, je me dis : « Waouh ! » Mais je pense qu’on va littéralement construire une légion, au moins une cette année, et probablement dix l’année prochaine. Je trouve que c’est une unité plutôt cool, vous savez ? Des unités de légion. Donc probablement 50 000 l’année prochaine », a ajouté l’homme le plus riche du monde.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Un juge déclare que Google détient un « monopole » illégal sur la technologie de la publicité sur le Web

Google détient un monopole illégal sur certaines publicités sur le Web, a statué jeudi un juge fédéral, offrant une victoire au gouvernement fédéral qui a lancé le défi antitrust contre le géant de la technologie.

3–5 minutes

Si elle est maintenue, la décision pourrait réécrire l’économie de la publicité en ligne et affecter les résultats financiers des sites Web qui dépendent des publicités pour leurs revenus, ont déclaré les experts.

La juge fédérale Leonie Brinkema a estimé que Google était trop dominant en imposant ses règles sur le marché publicitaire. Dans un cas, Google était neuf fois plus grand que son concurrent le plus proche

« Google s’est volontairement livré à une série d’actes anticoncurrentiels pour acquérir et maintenir un pouvoir de monopole sur les marchés des serveurs publicitaires et des échanges publicitaires pour la publicité display sur le Web ouvert », a conclu le juge.

Elle a déclaré que la prochaine étape serait de déterminer les conséquences.

Cette décision constitue la deuxième défaite majeure de Google en matière de concurrence. L’année dernière, un autre juge fédéral avait jugé que Google maintenait un monopole illégal sur les recherches et la publicité par mots-clés et s’efforçait de devenir l’outil de recherche par défaut sur de nombreux appareils.

Le ministère de la Justice, dans cette affaire et dans celle du marché publicitaire, a soutenu que Google devrait être contraint de céder certaines parties de ses activités pour restaurer sa compétitivité.



Abigail Slater, procureure générale adjointe de la division antitrust du ministère de la Justice, a déclaré que la décision devrait servir d’avertissement aux plateformes qui ont censuré ou exclu des voix américaines.

« L’avis d’aujourd’hui confirme le contrôle exercé par Google sur la publicité en ligne et, de plus en plus, sur Internet lui-même », a-t-elle déclaré.

Lors d’un procès de trois semaines l’année dernière, le juge Brinkema a déclaré que les experts avaient expliqué la capacité de Google à exclure des concurrents potentiels de certains marchés publicitaires en ligne clés.

Elle a déclaré que les clients bénéficiaient d’une qualité de produit inférieure en raison du monopole de Google.

Le ministère de la Justice, rejoint par près de 20 États, a fait valoir que Google maintenait un monopole illégal sur trois marchés de la technologie publicitaire : le marché des serveurs publicitaires des éditeurs, qui gère l’inventaire publicitaire ; le marché des échanges publicitaires, qui organise des enchères pour placer des publicités ; et le marché des réseaux publicitaires des annonceurs.

Google a contesté ces divisions.

Le juge Brinkema a donné raison au gouvernement sur deux d’entre eux, mais a déclaré qu’il n’y avait pas de marché distinct de réseau publicitaire d’annonceurs et donc pas de monopole.

Google a considéré cela comme une sorte de victoire.

« Nous avons gagné la moitié de cette affaire et nous ferons appel de l’autre moitié », a déclaré Lee-Anne Mulholland, vice-présidente des affaires réglementaires de Google.

« Le tribunal a jugé que nos outils publicitaires et nos acquisitions, comme DoubleClick, ne nuisent pas à la concurrence. Nous sommes en désaccord avec la décision du tribunal concernant nos outils destinés aux éditeurs. Ces derniers ont de nombreuses options et choisissent Google car nos outils publicitaires sont simples, abordables et efficaces », a-t-elle déclaré.

Le Competitive Enterprise Institute, un groupe de défense du libre marché, a déclaré que les monopoles ont deux critères standard : des prix artificiellement élevés ou une offre artificiellement basse, et que le comportement de Google n’a déclenché aucun des deux.

« Si Google avait un monopole, il ne parvenait pas à en tirer profit », a déclaré Ryan Young, économiste senior au CEI.

La question est de savoir si Google fausse le marché du placement d’annonces auprès des éditeurs en ligne.

Le juge Brinkema a déclaré que Google utilisait DFP, sa plateforme permettant aux éditeurs de vendre leur espace publicitaire, pour accorder un traitement préférentiel à sa propre plateforme d’échange d’annonces, AdX.

Le juge Brinkema a conclu que cela équivalait à une augmentation artificielle des revenus et donnait à Google des informations privilégiées sur la manière dont les enchères d’espaces publicitaires fonctionnaient à un moment donné.

Lorsqu’une alternative à AdX est apparue en 2014, permettant aux éditeurs de solliciter des offres en temps réel auprès d’autres plateformes d’échange d’annonces, Google a riposté.

Le juge Brinkema a déclaré qu’il avait créé un outil qui poussait l’activité dans l’environnement DFP de Google et extrayait des frais pour les transactions effectuées en dehors d’AdX.

Google a également réduit les enchères des ventes sur les échanges non AdX.

L’un des principaux concurrents a signalé une baisse de 40 % de son chiffre d’affaires.

Bien que l’affaire ait été portée et plaidée sous l’administration Biden, le ministère de la Justice de Trump a célébré la victoire.

La procureure générale Pam Bondi a qualifié cela de « victoire historique dans la lutte en cours pour empêcher Google de monopoliser la place publique numérique ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Le projet de loi sur les médias sociaux du Colorado fait l’objet d’un examen minutieux en raison de préoccupations liées à la liberté d’expression et à la confidentialité.

Le projet de loi SB 25-086 du Colorado impose la transparence des politiques des médias sociaux et des suppressions d’utilisateurs plus rapides, en attendant la décision de Jared Polis.

2–3 minutes

Un autre État américain tente de promulguer une loi qui, selon les législateurs qui la parrainent et les citoyens qui la soutiennent, vise à éliminer les préjudices illégaux qui touchent les jeunes sur les réseaux sociaux.

Mais la manière dont le projet de loi SB 25-086 (Protections for Users of Social Media ) du Colorado propose de procéder à cette tâche n’a jusqu’à présent pas réussi à convaincre le gouverneur Jared Polis que la liberté, l’innovation et la vie privée seraient également protégées.

Polis, un démocrate, déclare désormais qu’il « examinera la version finale » du projet de loi avant de le signer, la presse locale le citant comme disant qu’il n’est « pas à l’aise avec le fait que le gouvernement force les sociétés privées de médias sociaux à agir comme forces de l’ordre ».

Le projet de loi a été adopté par l’Assemblée générale du Colorado la semaine dernière avec un soutien bipartisan, tandis que les partisans ont réagi à la réticence apparente du gouverneur à transformer le SB 25-086 en loi en convoquant une conférence de presse lundi, pour approuver une fois de plus le projet de loi et faire pression sur Polis pour qu’il le signe.

Le projet de loi SB 25-086 exige que les réseaux sociaux publient leurs politiques et établissent, dans les 72 heures, si un utilisateur les a violées. En cas de violation, la loi impose aux réseaux sociaux de radier les utilisateurs dans les 24 heures suivant une violation de politique ou de loi.

Une autre mesure du projet de loi SB 25-086 oblige les entreprises comptant au moins un million d’utilisateurs à fournir « un processus simplifié permettant aux forces de l’ordre du Colorado de contacter la société de médias sociaux qui exploite la plateforme de médias sociaux ».

De plus, « sous certaines conditions », ces réseaux sociaux seraient tenus de se conformer à un mandat de perquisition dans les 72 heures suivant sa réception. Et chaque année, ils seraient tenus de produire un rapport détaillant, en fournissant « certaines données », la manière dont les mineurs ont utilisé leurs plateformes.

Le résumé original du projet de loi indiquait que cela incluait « une description de toutes les expériences de produits menées sur 1 000 utilisateurs mineurs ou plus » – mais cela a maintenant été supprimé.

Un autre rapport annuel serait soumis au Département de la justice du gouvernement du Colorado, informant les autorités des politiques publiées et des violations de ces politiques.

Les promoteurs du projet de loi affirment que le texte trouve le juste équilibre entre la protection des mineurs mais aussi la garantie que les dispositions ne puissent pas être utilisées abusivement pour menacer la vie privée et la liberté d’expression ou pour discriminer.

Mais les opposants craignent que l’impact négatif du projet de loi SB 25-086 ne l’emporte sur ses effets positifs, notamment en ce qui concerne son efficacité, mais aussi les protections du Premier Amendement.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


L’administration Trump envisage d’interdire DeepSeek — Rapports

La Maison Blanche envisage de restreindre l’accès à DeepSeek, qui a déjà secoué le monde par sa rentabilité et sa puissance, rapporte le New York Times.

1–2 minutes

L’administration du président américain Donald Trump envisage d’imposer des restrictions à la société chinoise d’intelligence artificielle DeepSeek afin de l’empêcher d’acheter de la technologie américaine, a rapporté le journal The New York Times, citant des sources.Plus tôt cette semaine, le géant technologique américain Nvidia aurait déclaré que le gouvernement américain avait bloqué la vente de certaines puces d’IA à la Chine sans licence et commencerait à exiger une licence pour les ventes futures.

L’administration envisage également la possibilité d’interdire aux Américains d’accéder aux services de DeepSeek, indique le rapport publié mercredi.La pression américaine sur DeepSeek et Nvidia est causée par la crainte de Washington que la Chine puisse dépasser les États-Unis dans le domaine de l’intelligence artificielle, ce qui pourrait entraîner des conséquences de grande envergure pour la sécurité nationale et la géopolitique, ajoute le rapport.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


La politique de Google « bâillonne » les médias, selon un groupe de presse européen

Les éditeurs de presse européens ont accusé Google de réduire systématiquement le trafic vers les sites de médias et ont appelé la Commission européenne à prendre des mesures urgentes.

3–4 minutes

Dans une lettre commune, quatre grandes associations industrielles, l’Association européenne des éditeurs de journaux (ENPA), l’Association européenne des magazines (EMMA), le Conseil européen des éditeurs (EPC) et European News Media, ont exprimé leur « profonde inquiétude » concernant la politique récemment mise à jour de Google sur les « abus de réputation de site » (SRA).

La nouvelle politique, introduite à un « moment critique » pour le secteur des médias européens, visait à lutter contre les tactiques de référencement « manipulatrices » telles que la pratique connue sous le nom de « SEO parasite », où du contenu tiers sans rapport était hébergé sur des sites d’information pour améliorer les classements de recherche.

S’adressant à Brussels Signal le 17 avril, Google a affirmé que les changements amélioraient l’expérience utilisateur et étaient conformes aux réglementations du bloc.

« Nous avons très clairement entendu de la part des utilisateurs que l’abus de réputation du site – communément appelé SEO parasite – conduit à une mauvaise expérience de recherche pour les utilisateurs et cette mise à jour de la politique contribue à lutter contre ce comportement », a déclaré un porte-parole de Google.

« Nous appliquons nos politiques anti-spam via un processus d’examen minutieux, qui comprend un processus de réexamen bien défini pour les propriétaires de sites concernés.

« Un tribunal allemand a déjà rejeté ces allégations, estimant spécifiquement que l’application de notre politique n’était pas discriminatoire », a ajouté le porte-parole.

Alors que Google a affirmé que ce changement visait à protéger les utilisateurs et à nettoyer les résultats de recherche, les éditeurs ont déclaré que cela avait des conséquences imprévues et préjudiciables pour la presse.



Selon la déclaration commune, il existe des preuves que Google utilise cette politique pour réduire la portée en ligne des médias d’information à travers l’Europe.

« Ces derniers mois, des preuves convaincantes sont apparues indiquant que Google a systématiquement réduit la portée des médias par le biais d’ajustements manuels opaques des pénalités et d’une application incohérente de sa politique », ont déclaré les quatre groupes de presse le 15 avril dans un communiqué.

Ils ont déclaré que l’application de la loi était « opaque » et incohérente, affectant même les sites Web qui conservaient un contrôle éditorial total sur leur contenu tiers.

Depuis le lancement de la politique SRA il y a quelques mois, les organisations médiatiques en Espagne, en France, en Allemagne, en Italie et en Pologne ont signalé des baisses spectaculaires de la visibilité des recherches, en particulier pour les petits médias.

Les éditeurs ont fait valoir que cela portait atteinte à la liberté de la presse, réduisait la diversité des voix accessibles au public et pouvait gravement nuire à l’avenir du journalisme indépendant et des pigistes.

« Les experts juridiques avertissent que cette politique pourrait rendre le journalisme indépendant presque invisible en ligne », indique leur communiqué.

« Cela menace à la fois la liberté entrepreneuriale des médias et le pluralisme essentiel à une démocratie saine. »

Plusieurs médias concernés ont déjà déposé des plaintes officielles auprès de la CE.

Les associations d’éditeurs ont exhorté Bruxelles à lancer une enquête complète et à prendre des mesures rapides pour garantir un traitement équitable des fournisseurs d’informations dans les écosystèmes numériques.

Face à ce problème, les groupes de presse européens pourraient en théorie cesser d’utiliser les services de Google en retirant leurs sites des résultats de recherche ou en abandonnant les outils Google, mais cela représenterait un risque majeur.

Pour la plupart des médias, Google reste le premier moteur de trafic Web et s’éloigner de son écosystème pourrait entraîner des pertes importantes d’audience et de revenus.

Étant donné la position dominante de Google – il détient plus de 78 % du marché mondial des moteurs de recherche et ce depuis plus d’une décennie – même les grandes organisations médiatiques ont une influence limitée sans une action collective dans l’ensemble du secteur.

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Gab refuse de se conformer à la « tyrannie » de la censure britannique

Gab s’oppose à la tentative du Royaume-Uni d’instaurer une censure mondiale.

2–3 minutes

Gab, une plateforme de médias sociaux basée aux États-Unis et connue pour son engagement en faveur de la liberté d’expression, a pris la décision de couper l’accès aux utilisateurs au Royaume-Uni.

Cette décision fait suite à un ultimatum de l’autorité de régulation des communications du Royaume-Uni, Ofcom, exigeant des données sur les utilisateurs et les opérations internes de Gab, demandes que l’entreprise rejette catégoriquement comme étant autoritaires.

Plus :  Quand une île exige de museler le monde

Le PDG Andrew Torba a clairement exprimé sa position dans un message publié sur X : « Notre dernière lettre de menace de l’Ofcom nous a ordonné de divulguer des informations sur nos utilisateurs et nos opérations. Nous savons où cela mène : une censure forcée et des citoyens britanniques jetés en prison pour « propos haineux ». » Il a conclu avec force : « Nous refusons de nous soumettre à cette tyrannie. »

La décision de Gab est une réponse directe à la controversée loi britannique sur la sécurité en ligne (Online Safety Act ), un vaste cadre législatif introduit sous couvert de sécurité publique, mais largement décrié pour sa portée étendue et son potentiel à étouffer la dissidence. L’entreprise affiche désormais un avis de blocage aux visiteurs basés au Royaume-Uni, invoquant à la fois une portée excessive de la loi et une position de principe en faveur de la liberté d’expression.

Un avis affiché aux utilisateurs au Royaume-Uni reprend les mots de John Milton d’Areopagitica : « Donnez-moi la liberté de savoir, de m’exprimer et d’argumenter librement selon ma conscience, au-delà de toute liberté. » Il précise également qu’après avoir reçu « une nouvelle demande de la police de la liberté d’expression du Royaume-Uni », Gab a choisi de couper complètement l’accès.

En tant qu’entreprise américaine sans présence physique en Grande-Bretagne, Gab soutient que l’Ofcom n’a aucune légitimité juridique pour imposer la conformité. « Pour faire appliquer quoi que ce soit aux États-Unis, il faudrait une demande d’entraide judiciaire ou une commission rogatoire. Aucun tribunal américain ne va appliquer un régime de censure étranger. Le Premier Amendement l’interdit », peut-on lire dans le message.

Gab souligne également l’absurdité de la tentative de l’Ofcom de sanctionner une entreprise américaine qui a déjà bloqué l’accès au Royaume-Uni. L’entreprise y voit une illustration flagrante de la façon dont la censure se transforme inévitablement en une tentative de museler plutôt que de protéger. « La censure ne fonctionne pas. Elle ne fait que révéler la vérité sur les censeurs », affirme le communiqué.

Il ne s’agit pas d’une position isolée. Gab rejoint désormais d’autres plateformes comme BitChute en restreignant l’accès depuis le Royaume-Uni, encourageant ainsi d’autres entreprises américaines à faire de même en signe de protestation. Le message inclut un appel audacieux à rejeter ce qu’il qualifie d’autoritarisme déguisé en réglementation de sécurité : « La seule façon de voter contre la tyrannie du régime actuel du Royaume-Uni est de s’en détourner, de refuser de se conformer et de se réfugier sous l’abri inviolable du Premier Amendement. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


La Russie fait pression sur Google pour qu’il supprime plus de 200 applications VPN dans un contexte de censure numérique croissante.

La Russie inonde Google d’ordres de retrait destinés à étouffer l’anonymat en ligne.

2–3 minutes

Les efforts déployés par la Russie pour limiter la liberté numérique se sont intensifiés ces dernières semaines. Le régulateur russe d’Internet, Roskomnadzor, a ciblé plus de 200 applications VPN hébergées sur le Google Play Store. Entre le 12 mars et le 1er avril, le gouvernement russe a émis 214 demandes de retrait distinctes, concernant 212 applications VPN. Ces demandes représentent plus de 90 % de toutes les demandes de retrait d’applications adressées à Google pendant cette période.

Malgré cette campagne de pression, Google s’est largement abstenu d’obtempérer. Selon les données de GreatFire , seules six des 212 applications signalées ne sont plus disponibles sur le Play Store, ce qui témoigne d’une position relativement ferme contre les exigences de censure russe généralisées.

La vague de tentatives de suppression a débuté avec 47 demandes déposées le 12 mars, qui ont attiré l’attention de GreatFire, une organisation qui lutte contre la censure numérique. Dans le cadre de son projet de censure des applications, GreatFire a analysé 399 applications VPN et conclu que 87 %, soit 346 applications, restaient accessibles sur la version russe du Play Store. Si ce chiffre témoigne de la résistance de Google, la suppression des 13 % restants représente une concession inquiétante aux pressions autoritaires.

Au total, 53 applications VPN de l’échantillon ont été identifiées comme indisponibles en Russie. Parmi les six applications inaccessibles sur la liste des 212 ciblées, deux avaient déjà disparu du Play Store en 2023, une a disparu mi-2024, et la disponibilité des trois autres reste incertaine. Par ailleurs, six autres VPN ont disparu du Play Store à l’échelle mondiale. Les causes et la date de ces suppressions n’ont pas été précisées.

Au-delà des applications spécifiquement ciblées, GreatFire a également identifié 47 VPN indisponibles sans être nommés lors des récentes opérations de démantèlement. Parmi eux, 20 étaient déjà inaccessibles début 2024 ou avant.

La répression ne s’est pas limitée aux applications mobiles. Le Roskomnadzor a également émis des ordres de suppression d’URL contre Google Search en vertu de la loi russe sur les VPN. Le premier avis, daté du 10 mars, exigeait la suppression de plus de 40 600 URL. Un peu plus de deux semaines plus tard, une deuxième directive a listé plus de 43 000 URL supplémentaires à supprimer. Ces listes ne se limitaient pas aux contenus liés aux VPN. Selon les conclusions de GreatFire, les suppressions visaient également des contenus traitant de la guerre en Ukraine, de questions sociales, de poésie et de chansons.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Le projet secret d’IA « Prédiction des homicides » du gouvernement britannique suscite des comparaisons dans les rapports minoritaires et des inquiétudes en matière de surveillance.

Enfoui dans un jargon bureaucratique, le plan transforme discrètement les données sur les traumatismes et la santé en prévisions.

2–3 minutes

Il a été révélé que le gouvernement britannique est impliqué dans le développement d’un autre projet dystopique, celui-ci étant comparé aux concepts explorés dans Minority Report, car il implique une analyse basée sur des algorithmes pour « prédire un meurtre ».

Le « Projet de prédiction des homicides » du ministère de la Justice (MoJ) – comme il était connu lors de son lancement, mais désormais désigné par l’expression générique « partage de données pour améliorer l’évaluation des risques » – utilise des informations appartenant à 100 000 à un demi-million de personnes, dans le but de découvrir qui est « le plus à risque » de devenir un meurtrier.

Statewatch a découvert le projet, lancé sous le gouvernement de Rishi Sunak. L’organisation de défense des droits civiques a utilisé les demandes d’accès à l’information et a souligné qu’il s’agissait d’un programme (auparavant) secret, impliquant un accord entre le ministère de la Santé, la police du Grand Manchester (GMP) et la police métropolitaine de Londres.

En réponse au rapport , le gouvernement britannique a déclaré qu’il s’agissait uniquement d’une recherche, « à ce stade ». Statewatch cite l’un des trois documents FOIA qu’il a consultés, dans lequel le ministère de la Justice mentionne une future « opérationnalisation » de ce système.

Les données utilisées sont initialement collectées par la police et proviennent non seulement de criminels ou de suspects, mais aussi de victimes, de témoins, de personnes disparues et de « personnes pour lesquelles il existe des préoccupations en matière de protection ».

Cependant, le ministère de la Justice affirme que seules les données des personnes condamnées sont utilisées, affirmant que les autres catégories ne sont pas incluses.

En ce qui concerne le type d’informations traitées par « l’outil prédictif », outre les noms, les dates de naissance, les sexes, les ethnies et l’identifiant unique de l’ordinateur national de la police, il existe également des « marqueurs de santé ».

Ces informations couvrent les antécédents de santé mentale d’une personne et des détails tels que la dépendance, l’automutilation, le suicide, la vulnérabilité et le handicap.

L’association Big Brother Watch a réagi à la nouvelle de ce projet en déclarant que le fait que le gouvernement se donne la possibilité d’utiliser des machines pour prédire qui pourrait devenir un tueur est « alarmant ».

La directrice par intérim Rebecca Vincent a fait remarquer que même lorsqu’un crime a déjà été commis, les algorithmes et l’IA peuvent toujours produire des conclusions erronées basées sur des preuves.

Utiliser la même technologie et les mêmes techniques pour tenter de « prédire les crimes » qui pourraient finalement cibler des personnes innocentes comporte « d’énormes implications en matière de vie privée », a déclaré Vincent, appelant à l’abandon immédiat du projet, le qualifiant de « cauchemar des droits de l’homme rappelant la science-fiction qui n’a pas sa place dans le monde réel, et certainement pas dans une démocratie ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


DÉSASTRE DE CONFIDENTIALITÉ : Le traceur GPS de T-Mobile expose les enfants à des prédateurs potentiels

Le 1er avril, les services SyncUP KIDS et SyncUP DRIVE de T-Mobile ont mal fonctionné, exposant les emplacements en temps réel, les noms et les photos des enfants et les données des véhicules à des utilisateurs aléatoires, déclenchant une alarme généralisée.

5–7 minutes

  • Les parents concernés ont signalé avoir vu les données de leurs enfants inconnus au lieu des leurs, sans solution immédiate. Une mère a décrit l’expérience comme « terrifiante », car les alertes de sécurité concernant ses enfants ont été remplacées par des informations provenant d’inconnus.
  • T-Mobile a d’abord minimisé les inquiétudes des parents, ne reconnaissant le problème qu’après sa couverture médiatique. L’entreprise a ensuite attribué le problème à une « mise à jour technologique planifiée », sans toutefois préciser l’ampleur exacte de la faille.
  • L’incident met en évidence les vulnérabilités des technologies de suivi, soulevant des inquiétudes quant à l’utilisation abusive des données, aux garanties inadéquates pour les enfants et aux risques non traités dans les appareils basés sur GPS/SIM.
  • Les critiques réclament des mesures de sécurité plus strictes et une plus grande transparence de la part des fournisseurs de technologie, soulignant la nécessité de protections de la vie privée plus strictes, en particulier pour les données sensibles impliquant des mineurs.

Un incident préoccupant mettant en lumière les vulnérabilités des technologies de suivi numérique a eu lieu le 1er avril : le traceur GPS SyncUP de T-Mobile a connu une panne,  exposant la localisation, le nom et la photo en temps réel d’enfants à des utilisateurs aléatoires . Cette panne a également affecté le service SyncUP DRIVE de T-Mobile, qui suit les véhicules, entraînant des atteintes similaires à la vie privée. Cet incident a suscité de vives inquiétudes quant à la sécurité et à la confidentialité des données sensibles, notamment celles des enfants.

Un abus de confiance

Les parents qui utilisent SyncUP KIDS de T-Mobile, un traceur GPS conçu pour les aider à localiser leurs jeunes enfants, se sont retrouvés dans une situation angoissante. Au lieu de voir la localisation de leurs propres enfants, ils ont vu en temps réel la position, le nom et la photo d’enfants choisis au hasard aux États-Unis . Jenna, une mère qui utilise SyncUP pour suivre ses enfants de trois et six ans, a décrit cette expérience comme profondément déstabilisante.

« Je me connectais et je ne voyais pas mes enfants, mais je voyais un enfant en Californie. Je rafraîchissais la page et je voyais un autre enfant », a déclaré Jenna. « J’avais mis en place une zone de 500 mètres autour de son école, donc je recevais une alerte quand il partait. C’était terrifiant de voir les informations des autres enfants et de ne pas pouvoir suivre les miennes. »

Le problème ne concernait pas qu’un seul utilisateur. Plusieurs parents ont rapporté des expériences similaires, chaque connexion affichant des informations différentes sur leurs enfants. Le problème persistait même après déconnexion et reconnexion, ce qui aggravait encore l’anxiété des parents.

L’absence d’action immédiate de T-Mobile

Malgré la gravité du problème, la réponse initiale de T-Mobile a été critiquée pour son manque d’urgence et de transparence . Jenna, qui a déposé un ticket et a envoyé un courriel, a exprimé sa frustration quant à la gestion de la situation par l’entreprise.

« Personne ne m’a prise au sérieux là-bas », a déclaré Jenna. « J’avais l’impression qu’on me laissait de côté, et c’était vraiment inquiétant, car il s’agit de la sécurité de mes enfants. »

Ce n’est que lorsque les médias ont commencé à évoquer le problème que T-Mobile a publié un communiqué. Bennet Ladyman, responsable de la communication de crise de T-Mobile, a reconnu le problème et déclaré qu’il avait été résolu.

« Hier, nous avons entièrement résolu un problème système temporaire sur nos produits SyncUP, résultant d’une mise à jour technologique planifiée », a déclaré Ladyman. « Nous étudions actuellement les impacts potentiels sur un petit nombre de clients et nous contacterons ceux qui en auront besoin. Nous vous prions de nous excuser pour la gêne occasionnée. »



Préoccupations en matière de confidentialité et de sécurité

Cet incident met en lumière les préoccupations plus larges en matière de confidentialité et de sécurité à l’ère numérique, notamment en matière de suivi des enfants. Le dispositif SyncUP KIDS est conçu pour rassurer les parents en leur permettant de surveiller les déplacements de leurs enfants. Cependant, cette faille a révélé une vulnérabilité critique du système, soulevant des questions sur la fiabilité et la sécurité de ces technologies.

Les défenseurs de la vie privée mettent en garde depuis longtemps contre les risques liés à la géolocalisation, notamment lorsqu’elle concerne les enfants. Le risque d’utilisation abusive, que ce soit par des acteurs malveillants ou en raison de défaillances techniques, est une préoccupation majeure. Cet incident rappelle brutalement la nécessité de mesures de sécurité robustes et d’une communication transparente de la part des fournisseurs de technologies.

Impact sur les autres services

Le problème n’a pas seulement affecté le service SyncUP KIDS. SyncUP DRIVE de T-Mobile, qui permet aux utilisateurs de suivre la localisation et les performances de leurs véhicules, a également rencontré un problème similaire. Des utilisateurs ont signalé que l’application affichait la position des véhicules d’autres personnes , plutôt que la leur.

« Il m’affiche les données de toutes sortes de voitures aux États-Unis. Mais il ne m’affiche pas les données de mes véhicules », a écrit un utilisateur de Reddit.

T-Mobile a depuis déclaré que le problème avec SyncUP DRIVE avait été résolu, mais l’étendue du problème et le nombre de clients concernés restent flous. Le communiqué de l’entreprise ne fournit pas de détails précis sur le nombre d’utilisateurs concernés ni sur les mesures prises pour éviter que cela ne se reproduise.

Un appel à une plus grande responsabilité

La panne de T-Mobile SyncUP est un signal d’alarme pour les consommateurs comme pour les fournisseurs de technologies . Si la commodité du suivi en temps réel peut apporter une certaine tranquillité d’esprit, les risques potentiels doivent être gérés avec prudence. Les parents et les utilisateurs de services de suivi sont en droit d’attendre que leurs données, notamment celles concernant la sécurité des enfants, soient traitées avec le plus grand soin et la plus grande sécurité.

La réponse de T-Mobile à cet incident n’a pas atteint la transparence et la responsabilité requises dans de telles situations. Face à l’évolution constante des technologies, il est crucial pour les entreprises de privilégier la confidentialité et la sécurité des utilisateurs, et de communiquer efficacement avec eux en cas de problème.

Les sources incluent :

ReclaimTheNet.org

404Media.co

AndroidHeadlines.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Une loi sur la surveillance vendue avec de douces assurances et de lourdes implications pour la vie privée numérique.

Le gouvernement autrichien a rejoint une liste croissante d’autorités dans des pays du monde entier qui recherchent activement des moyens d’imposer l’inclusion de portes dérobées de cryptage dans les applications de messagerie comme WhatsApp et Telegram, qui offrent des communications sécurisées.

2–3 minutes

La tendance anti-cryptage se poursuit, malgré les avertissements constants des experts en technologie et des défenseurs de la vie privée selon lesquels le cryptage ne peut pas être brisé d’une manière qui ne donne accès qu’aux « bons gars » comme les gouvernements et les forces de l’ordre tout en empêchant les acteurs malveillants d’entrer.

Mais lorsqu’il a évoqué plus tôt cette semaine un projet de loi visant à permettre la surveillance des communications jusque-là privées sur des applications cryptées, le ministre autrichien de l’Intérieur, Gerhard Karner (ÖVP), s’en est tenu au discours régulièrement répété selon lequel la police avait besoin d’un accès pour « égaliser les chances » tout en combattant « les terroristes et les extrémistes ».

Cette dernière définition semble couvrir les personnes qui se livrent à des « activités menaçant la Constitution ».

Malgré cette définition assez large, Karner a osé prédire que la police n’utiliserait pas les nouveaux pouvoirs importants proposés autrement que pour enquêter sur « quelques cas individuels par an ».

Sans entrer dans les détails de la manière dont il est arrivé à ce chiffre – ou comment une telle chose pourrait être prédite, à moins qu’il ne s’agisse simplement d’une tentative de minimiser l’opposition à de tels projets – le ministre a poursuivi en déclarant que les forces de l’ordre limiteraient leurs nouvelles capacités d’espionnage aux cas de suspicion de préparation d’une attaque terroriste, de formation de groupes terroristes – et « cela peut également être utilisé à des fins d’espionnage », a déclaré Karner.

Entre-temps, il a promis que « la population n’est pas affectée par cela ».

Autrement dit, la population doit faire confiance au gouvernement et à ses forces de l’ordre pour ne pas abuser à aucun moment de leur pouvoir d’accès et de lecture de leurs messages à des fins antidémocratiques comme la surveillance de masse.

Bien que ces craintes soient parfaitement raisonnables, le partenaire de coalition de Karner, le secrétaire d’État Jorg Leichtfried (SPO), les a rejetées, déclarant ne « voir aucun danger de surveillance de masse » découlant du projet de loi.

Au lieu d’entrer dans les détails des raisons pour lesquelles il en est ainsi, Leichtfried a continué à dire à « la population » ce qu’elle devrait ressentir, demandant en fait une confiance aveugle.

« La population doit avoir le sentiment que le pays devient plus sûr », a déclaré ce responsable.

Le troisième partenaire de la coalition au pouvoir, NEOS, n’est cependant pas entièrement d’accord.

Mais Karner pense que les deux autres partis parviendront à « convaincre » NEOS, au cours de la « longue période d’examen de huit semaines » du projet.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


«Elon Musk veut nous détruire», accuse le créateur de ChatGPT

Open AI a décidé de porter plainte contre le patron de X et Tesla, lui reprochant «une campagne acharnée» pour lui nuire après qu’il a connu le succès sans lui.

2–3 minutes

La star de l’intelligence artificielle OpenAI a déposé plainte à son tour contre le multimilliardaire Elon Musk, accusant son ancien cofondateur d’avoir mené une «campagne acharnée» pour nuire à l’organisation après qu’elle a connu le succès sans lui. La start-up qui a lancé ChatGPT fin 2022 souhaite obtenir une injonction pour mettre fin à «d’autres actions illégales et injustes» de M. Musk, ainsi qu’une indemnisation.

Dans les documents juridiques déposés mercredi devant un tribunal californien, OpenAI affirme que Musk est devenu hostile à l’égard de l’entreprise après l’avoir abandonnée, des années avant sa percée dans l’intelligence artificielle (IA) générative. «Musk ne pouvait pas tolérer d’assister au succès d’une société qu’il avait abandonnée et déclarée condamnée», a assené OpenAI.

Musk avait «abandonné» Open AI

Cette plainte est le dernier épisode en date d’une querelle acerbe entre la championne technologique et l’homme le plus riche du monde, qui a poursuivi OpenAI en justice l’année dernière, en l’accusant d’avoir trahi sa mission fondatrice. Dans sa contre-attaque, l’entreprise estime que Musk «a décidé de détruire OpenAI et de construire un concurrent direct qui serait plus avancé technologiquement – non pas pour le bien de l’humanité, mais pour Elon Musk».

Le patron de Tesla et SpaceX a fondé sa propre entreprise d’IA générative, xAI, en 2023, et a investi des dizaines de milliards de dollars pour concurrencer les autres grands acteurs du secteur.

OpenAI a été fondée en décembre 2015 en tant que laboratoire de recherche à but non lucratif ayant pour mission de veiller à ce que l’intelligence artificielle générale (AGI) – désignant une IA aussi intelligente que des humains – «profite à l’ensemble de l’humanité».

Elon Musk faisait partie des premiers bailleurs de fonds, aux côtés du patron actuel Sam Altman. Mais sa participation a été de courte durée, selon OpenAI. L’entreprise assure que Musk a quitté l’organisation après que ses dirigeants d’OpenAI ont refusé «de se plier à ses exigences sur le contrôle de l’entreprise ou, alternativement, son absorption dans Tesla».

OpenAI vaut aujourd’hui 300 milliards de dollars après son dernier tour de table de 40 milliards de dollars, la plus grosse levée de fonds jamais réalisée par une start-up non cotée. Mais OpenAI va devoir modifier ses statuts, pour se transformer en entreprise classique, tout en conservant l’organisation mère à but non lucratif.

OpenAI reproche à Elon Musk de lui nuire en présentant à tort ce changement de forme juridique comme une conversion totale, en multipliant les attaques dans la presse et sur son réseau social X où il compte plus de 200 millions d’abonnés et avec son «offre d’achat fictive pour les actifs d’OpenAI».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


BitChute interrompt son service de partage de vidéos pour les résidents du Royaume-Uni en raison des lois sur la censure en ligne.

Les lois de censure du Royaume-Uni tracent désormais les frontières de la liberté d’expression en ligne, séparant les utilisateurs britanniques de leur propre public.

3–4 minutes

BitChute, plateforme reconnue pour son engagement en faveur de la liberté d’expression et de la liberté d’expression, a officiellement retiré ses services du Royaume-Uni, invoquant des conditions réglementaires intenables dans le cadre de la loi britannique sur la censure récemment promulguée, l’Online Safety Act. Cette décision fait suite aux nouvelles compétences renforcées de l’Ofcom, l’organisme de régulation des communications, qui lui permet d’infliger des amendes pouvant atteindre 10 % du chiffre d’affaires mondial d’une entreprise jugée non conforme aux exigences de censure très strictes de la loi.

Ce changement de réglementation marque ce que certains considèrent comme une profonde érosion des libertés numériques au Royaume-Uni. La décision de BitChute pourrait marquer le début d’un exode plus large, d’autres plateformes internationales pouvant suivre son exemple pour échapper à la surveillance excessive désormais codifiée par le droit britannique.

Dans une déclaration publique détaillée publiée sur son site Web, BitChute a expliqué la raison derrière cette mesure drastique :

« Après un examen attentif et une évaluation continue du paysage réglementaire au Royaume-Uni, nous avons le regret de vous informer que BitChute va interrompre son service de partage de vidéos pour les résidents du Royaume-Uni. »

La plateforme a souligné le caractère imprévisible et contraignant du nouveau cadre juridique, insistant sur les mandats étendus de la loi en matière de modération des contenus et sur les pouvoirs discrétionnaires qu’elle confère à l’Ofcom pour les faire respecter. BitChute a averti que ces dispositions créent un environnement juridique ambigu, plaçant les plateformes à la merci de normes floues et de sanctions sévères.

« La plateforme BitChute a toujours fonctionné selon les principes de liberté de parole, d’expression et d’association… Cependant, l’évolution des pressions réglementaires, notamment les mécanismes d’application stricts et les responsabilités potentielles, a créé un paysage opérationnel dans lequel continuer à servir le marché britannique expose notre entreprise à des risques juridiques et de conformité inacceptables. »

L’entreprise a mis en place des restrictions immédiates : les résidents du Royaume-Uni peuvent toujours publier du contenu sur la plateforme, mais aucune de leurs vidéos ne sera accessible aux autres utilisateurs basés au Royaume-Uni. Leur contenu restera visible pour les utilisateurs d’autres pays, qui pourront interagir avec lui comme d’habitude.

« Le changement majeur sera que ce contenu publié par un utilisateur britannique ne sera visible par aucun autre utilisateur britannique, mais sera visible par d’autres utilisateurs situés en dehors du Royaume-Uni. »

Cela signifie concrètement que même si les créateurs basés au Royaume-Uni ne sont pas totalement exclus de la participation, leurs voix sont désormais numériquement isolées de celles de leurs concitoyens, en raison de contraintes juridiques plutôt que techniques.

BitChute a exprimé ses regrets face à cette décision, la décrivant comme une nécessité regrettable, motivée par les exigences intenables de la loi sur la sécurité en ligne. L’entreprise a réitéré son engagement à offrir un espace de dialogue ouvert, sans pour autant s’exposer à un risque réglementaire disproportionné.

« Cette décision n’a pas été prise à la légère. Elle reflète notre engagement à maintenir les normes de conformité les plus strictes, à protéger notre communauté et à garantir que notre plateforme demeure un espace sûr et durable pour l’expression créative à l’échelle mondiale. »

Cette évolution constitue un avertissement sévère pour les autres plateformes et utilisateurs préoccupés par les implications d’une réglementation étatique des contenus. Avec le renforcement de l’application de la loi sur la sécurité en ligne, la liberté numérique au Royaume-Uni est confrontée à de nouvelles contraintes qui, selon beaucoup, risquent de faire taire les voix dissidentes et d’étouffer les discussions ouvertes sous couvert de sécurité.

Pour l’instant, BitChute reste accessible aux utilisateurs en dehors du Royaume-Uni et ses opérations mondiales se poursuivront.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Le Sénat enquête sur Meta concernant une collaboration présumée avec la Chine et le projet de censure « Aldrin »

Une décennie de relations amoureuses avec Pékin menace de révéler les ambitions les plus secrètes de la Silicon Valley.

3–4 minutes

Les législateurs américains ont ouvert une enquête sur Meta Platforms suite à des allégations de longue date selon lesquelles la société aurait exploré des moyens de collaborer avec le gouvernement chinois afin de pénétrer le marché numérique fortement restreint du pays.

La sous-commission permanente des enquêtes du Sénat exige des documents et des communications internes datant de plus d’une décennie, y compris ceux liés à des efforts qui auraient impliqué des mécanismes de censure conçus pour se conformer aux exigences de Pékin.

L’enquête, annoncée mardi, est menée par le sénateur Ron Johnson, avec le soutien des sénateurs Richard Blumenthal et Josh Hawley. Dans une requête officielle adressée au PDG Mark Zuckerberg, les sénateurs demandent à Meta de lui remettre des documents d’ici le 21 avril. L’enquête porte sur toutes les interactions entre Meta et les responsables chinois, ainsi que sur les discussions de l’entreprise concernant ses stratégies d’entrée sur le marché.

Lettre du Comité sénatorial américain de la sécurité intérieure et des affaires gouvernementales, datée du 1er avril 2025, adressée à M. Mark Zuckerberg, PDG de Meta Platforms, Inc. Cette lettre, envoyée par courriel, fait état d'une enquête sur le développement présumé par Meta d'outils de censure destinés au Parti communiste chinois (PCC) pour pénétrer le marché chinois. Elle fait référence à des articles tirés du livre « Careless People » de Sarah Wynn-Williams et demande des informations avant le 21 avril 2025.
Nous avons obtenu une copie de la lettre complète pour vous ici .

Ce regain d’attention fait suite aux révélations publiées dans Careless People, les mémoires de Sarah Wynn-Williams, ancienne dirigeante de Facebook. L’ouvrage décrit une initiative secrète prétendument menée par Meta, appelée en interne « Projet Aldrin », qui aurait été élaborée en 2014 dans le cadre d’un plan triennal visant à établir une présence en Chine. Selon la lettre du Sénat, les documents internes de Meta examinés par la sous-commission corroborent le récit de Wynn-Williams.

Parmi les documents recherchés figurent des informations sur les filiales de Meta liées à la Chine, les lancements d’applications dans le pays, notamment des plateformes comme Colorful Balloons, Flash, Boomerang et MSQRD, ainsi que toute action entreprise par l’entreprise pour supprimer ou retirer du contenu à la demande de gouvernements étrangers. Les législateurs enquêtent également sur la tentative abandonnée de Meta d’établir un câble de données sous-marin reliant la Californie à Hong Kong.

Meta a fermement démenti ces allégations, les jugeant obsolètes et peu fiables. « Tout cela est imputable à un employé licencié il y a huit ans pour mauvaise performance. Nous n’exploitons plus nos services en Chine aujourd’hui. Ce n’est un secret pour personne que nous étions intéressés par cette initiative dans le cadre des efforts de Facebook pour connecter le monde », a déclaré un porte-parole de Meta. « Nous avons finalement décidé de ne pas donner suite aux idées que nous avions explorées, annoncées par Mark Zuckerberg en 2019. »

Malgré ces affirmations, le sénateur Blumenthal a déclaré que les documents internes examinés par la sous-commission suscitent de profondes inquiétudes. « Les documents alarmants des lanceurs d’alerte examinés par la sous-commission dressent un portrait accablant d’une entreprise qui censurerait, dissimulerait et tromperait pour accéder au marché chinois », a-t-il déclaré.

Les démarches juridiques de Meta pour faire taire Wynn-Williams ont alimenté la controverse. Le jour même de la publication de Careless People, l’entreprise a déposé une demande d’arbitrage, invoquant un accord volontaire de non-dénigrement qu’elle avait signé lors de son départ. Dans les 24 heures, un arbitre a émis une ordonnance de non-publication temporaire lui interdisant de tenir des « commentaires désobligeants, critiques ou autrement préjudiciables » à l’égard de Meta et de promouvoir le livre.

L’équipe juridique de Wynn-Williams a depuis fait pression pour faire annuler cette décision, arguant que l’ordonnance l’empêchait de répondre aux demandes de renseignements des membres du Congrès et des gouvernements étrangers. Ses avocats affirment que le silence imposé par l’arbitrage empêche l’accès à des témoignages clés sur le comportement des entreprises, qui ont des implications concrètes en matière de politique publique. Meta, pour sa part, a affirmé ne pas avoir l’intention de porter atteinte à ses droits.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Un juge fédéral invalide la loi de l’Arkansas sur l’identification numérique des médias sociaux ; les législateurs répondent avec une proposition révisée incluant l’identification numérique et les vérifications d’âge via VPN

Le projet de loi remanié réduit sa portée mais approfondit son empreinte numérique, entraînant dans la mêlée les utilisateurs de VPN et les analyses biométriques.

2–3 minutes

La semaine dernière, un juge fédéral a décidé d’ annuler la loi sur la sécurité des médias sociaux (loi 689) – la loi de l’Arkansas sur l’identité numérique de vérification de l’âge en ligne – après avoir conclu que certaines de ses dispositions étaient inconstitutionnellement vagues et en violation du premier amendement.

Les représentants du groupe industriel technologique NetChoice, qui a mené la charge juridique contre la loi 689, ont salué la décision, le directeur du contentieux Chris Marchese déclarant qu’elle « protège les Américains de l’obligation de remettre leurs pièces d’identité ou leurs données biométriques simplement pour accéder à un discours constitutionnellement protégé en ligne ».

Cependant, une nouvelle proposition est arrivée peu après : le projet de loi 611 du Sénat (SB 611) . Il a été présenté au Sénat de l’Arkansas par les républicains de l’État pour modifier la loi 689, afin de répondre aux préoccupations constitutionnelles soulevées par la décision du juge de district américain Timothy L. Brooks.

La loi de 2023 sur la sécurité des médias sociaux a été promue et adoptée afin de protéger les mineurs des dangers en ligne. Cependant, le juge Brooks a estimé que « plutôt que de cibler les contenus préjudiciables aux mineurs, la loi 689 entrave simplement l’accès aux contenus en général ».

Le projet de loi SB 611 modifie la législation initiale en ajoutant une nouvelle définition de mineur – auparavant une personne de 18 ans et moins, désormais de 16 ans et moins – ainsi que la définition légale des plateformes de réseaux sociaux tenues de s’y conformer. Cependant, il continue d’exiger que les plateformes mettent en œuvre des méthodes « raisonnables » de vérification de l’âge.

Ces méthodes incluent l’accès aux identifiants numériques ou aux données biométriques. Les utilisateurs de VPN sont également dans le collimateur de la nouvelle proposition, car elle obligerait les plateformes à vérifier l’âge des résidents de l’Arkansas accédant aux réseaux sociaux « alors qu’ils sont connus ou supposés se trouver » dans l’État – et cela couvrirait l’utilisation des VPN.

D’autres changements limitent les dispositions du projet de loi aux seuls nouveaux comptes et interdisent aux plateformes de cibler les mineurs par algorithme, tandis que le non-respect serait sanctionné par des amendes.

Le projet de loi SB 612 a été introduit avec le projet de loi SB 611 comme législation complémentaire permettant aux parents de poursuivre les entreprises de médias sociaux si leur enfant commet ou tente de se suicider, ou subit des dommages à sa santé mentale ou physique en raison d’une exposition à du contenu en ligne « promouvant ou favorisant de toute autre manière l’automutilation ou le suicide ».

Certains rapports sur le projet de loi SB 611 et ses principales exigences le considèrent comme faisant partie d’une initiative plus large dans l’Arkansas qui comprend des cartes d’identité mobiles et des permis de conduire numériques, qui ont été récemment introduits et prévoient une « infrastructure » qui serait utilisée par les plateformes pour vérifier l’âge d’un utilisateur.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


L’IA prouve que les empreintes digitales ne sont pas uniques, bouleversant le système juridique

L’analyse des empreintes digitales est un outil fiable dans la résolution des crimes depuis plus d’un siècle. Les enquêteurs s’appuient sur les empreintes digitales pour identifier les suspects ou les relier à des scènes de crime spécifiques, convaincus que chaque empreinte offre un code distinctif.

6–9 minutes

Pourtant, une équipe de chercheurs a découvert que les empreintes de différents doigts d’une même personne peuvent parfois sembler plus semblables.

Cette découverte est venue d’un modèle d’intelligence artificielle qui a révélé des liens surprenants entre les empreintes.

Hod Lipson, de Columbia Engineering, se distingue dans cet effort visant à remettre en question les normes médico-légales largement acceptées, en collaboration avec Wenyao Xu de l’ Université de Buffalo .

L’IA s’attaque aux empreintes digitales

Pendant des décennies, on a tenu pour acquis que les empreintes digitales des différents doigts d’un même individu ne correspondaient pas. Cette croyance repose en grande partie sur l’hypothèse selon laquelle chaque doigt présente des crêtes, des boucles et des tourbillons totalement distincts.

Un critique anonyme a même déclaré : « Il est bien connu que chaque empreinte digitale est unique », lorsqu’il a été confronté au travail des chercheurs.

Malgré cette résistance, un étudiant de dernière année de Columbia Engineering, nommé Gabe Guo, a mené une étude qui contredit cette hypothèse de longue date.

En utilisant une base de données publique du gouvernement américain contenant environ 60 000 empreintes digitales, Guo a intégré des paires d’empreintes digitales dans un réseau contrasté profond. Certaines paires appartenaient à la même personne, tandis que d’autres provenaient de personnes différentes.



Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.

Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.

Les chercheurs font tanguer le bateau

Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.

Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .

Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.

« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.

Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.

Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.

Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.

Les chercheurs font tanguer le bateau

Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.

Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .

Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.

« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.

Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.

Finalement, leur persévérance a porté ses fruits puisque leur étude a finalement été reconnue et publiée dans la revue à comité de lecture Science Advances .

L’IA donne de nouveaux indices dans l’analyse des empreintes digitales

Les méthodes traditionnelles s’appuient sur des détails, qui font référence aux modèles de ramification et aux points d’extrémité des crêtes.

« L’IA n’utilisait pas les « minuties », qui sont les ramifications et les points d’extrémité des crêtes d’empreintes digitales – les modèles utilisés dans la comparaison traditionnelle des empreintes digitales », a expliqué Guo.

« Au lieu de cela, il utilisait autre chose, lié aux angles et aux courbures des tourbillons et des boucles au centre de l’empreinte digitale. »

Ses conclusions suggèrent que les experts ont peut-être négligé des indices visuels importants.

La collaboration comprenait Aniv Ray, diplômé de Columbia Engineering, et Judah Goldfeder, étudiant au doctorat, qui ont tous deux indiqué que le succès initial du projet pourrait se renforcer avec des ensembles de données plus volumineux.

« Imaginez à quel point cela fonctionnera bien une fois qu’il sera formé sur des millions, au lieu de milliers d’empreintes digitales », a fait remarquer Ray, laissant entendre que cette approche pourrait éventuellement affiner la façon dont les enquêteurs recherchent des indices sur plusieurs scènes de crime.

Biais potentiel et prochaines étapes

Les chercheurs sont attentifs aux éventuelles lacunes dans les données. Ils ont constaté que leur système affichait des performances similaires auprès de différents groupes démographiques, mais ont souligné la nécessité de disposer de collections d’empreintes digitales plus vastes et plus diversifiées.

Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.

L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.

Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.

« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.

« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »

IA, empreintes digitales et application de la loi

Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.

Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.

Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.

Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.

L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.

Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.

« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.

« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »

IA, empreintes digitales et application de la loi

Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.

Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.

Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.

« Ce qui est encore plus passionnant, c’est qu’un étudiant de premier cycle, sans aucune expérience en criminalistique, puisse utiliser l’IA pour remettre en question avec succès une croyance largement répandue dans tout un domaine », a conclu Lipson.

« Nous sommes sur le point de vivre une explosion de découvertes scientifiques menées par des non-experts grâce à l’IA, et la communauté des experts, y compris le monde universitaire, doit s’y préparer. »

L’étude complète a été publiée dans la revue Science Advances .

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


La Chine étend son système de crédit social avec 23 nouvelles directives visant à renforcer la surveillance et à renforcer la loyauté politique

Un comportement autrefois considéré comme personnel est désormais un indicateur dans le calcul de l’obéissance du Parti.

1–2 minutes

Le parti au pouvoir en Chine a introduit une nouvelle série de 23 directives visant à étendre son infrastructure de crédit social déjà tentaculaire, renforçant un système qui attribue des scores comportementaux aux citoyens et aux organisations afin de contrôler l’accès aux services et opportunités de base.

Publiées par l’ agence de presse Xinhua , soutenue par l’État , ces nouvelles mesures sont présentées comme une stratégie visant à remédier à ce que le gouvernement décrit comme une surveillance fragmentée et un partage limité des données. Mais en pratique, cette réforme revient à renforcer la surveillance, qui renforce le contrôle non seulement des particuliers et des entreprises, mais aussi des collectivités locales et des institutions publiques.

Plus :  Le système de crédit social chinois est sur le point d’évoluer, alors que l’Occident commence à mettre en œuvre certaines de ses fonctionnalités 

Le système de crédit social agrège des données personnelles et institutionnelles pour générer des classements qui influencent tout. Un comportement jugé inacceptable par le Parti communiste – comme la participation à une activité religieuse, l’expression d’une dissidence ou même des infractions mineures comme traverser la rue sans autorisation – peut entraîner des sanctions. Avec l’élargissement progressif du champ d’application du système au fil des ans, ce qui n’était au départ qu’un outil de crédibilité financière s’est transformé en un mécanisme de contrôle de la conformité sociale.

Le nouveau cadre vise à fluidifier la collecte et la diffusion des données entre les ministères, sous couvert d’efficacité. Selon Xinhua, ces directives étendront la portée du système à « tous types d’entités », englobant non seulement les entreprises privées, mais aussi les organismes gouvernementaux et les entreprises publiques.

Xinhua a affirmé que les changements seraient mis en œuvre conformément aux garanties visant à protéger « la sécurité de l’information et les droits individuels ». Mais ces assurances n’ont guère apaisé les inquiétudes de ceux qui considèrent le système comme intrinsèquement coercitif et opaque, en particulier lorsqu’il est utilisé pour réprimer la dissidence et récompenser l’obéissance politique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


2025 : l’iPhone pour les robots humanoïdes

La course est lancée pour conquérir le marché des robots humanoïdes, qui représente plusieurs milliards de dollars. L’IA peut instantanément adapter les robots polyvalents à n’importe quelle tâche. Les robots personnels, par exemple, cuisineront vos repas, nettoieront votre maison, feront votre lessive, donneront des cours particuliers à vos enfants, conduiront votre voiture, tondront votre pelouse, s’occuperont de vos parents âgés, répareront votre plomberie, etc. Alors qu’un iPhone propose de nombreuses applications accessibles depuis un seul appareil, les robots vous libéreront d’un seul écran pour envahir le monde physique. Tesla établira probablement la norme avec son modèle Optimus à partir de 20 000 à 30 000 dollars. ⁃ Patrick Wood, rédacteur en chef.

3–4 minutes

« Il y a un moment crucial pour l’iPhone avec les humanoïdes », a déclaré Brett Adcock, fondateur de Figure, une entreprise californienne de robotique humanoïde. « Cela va arriver maintenant », a ajouté l’entrepreneur en série,  dont les robots sont déjà à l’œuvre sur la chaîne de production de l’usine BMW de Spartanburg . Un autre client majeur teste ses robots en entrepôt. « Pour réussir, il faut réaliser trois choses inédites. Et il faut les maîtriser toutes les trois dans les cinq prochaines années, sinon c’est l’échec assuré. »

« La première chose à faire est de concevoir un matériel pour humanoïdes incroyablement complexe et infaillible, capable de fonctionner à la vitesse et avec une amplitude de mouvement humaines », explique Adcock. « La deuxième chose à faire est un problème de réseau neuronal, et non de système de contrôle. On ne peut pas résoudre ce problème par le code. Il faut un robot capable d’ingérer des données de type humain via un réseau neuronal et capable d’imiter les actions humaines.  Les robots humanoïdes ne sont pas comme des bras fixés à une table d’usine. Aucun de ces robots n’est doté d’IA. »

« Le troisième problème est qu’il faut généraliser. C’est le Saint Graal de la robotique »,  a expliqué Adcock. « Faire en sorte qu’un robot observe quelque chose qu’il n’a jamais vu ou entendu auparavant, et pouvoir lui dire comment le faire, puis le faire réaliser de bout en bout grâce à un réseau neuronal », a-t-il déclaré.  « Si vous parvenez à résoudre ces trois problèmes, alors vous êtes dans la bonne décennie et vous êtes à l’ère de l’iPhone », a-t-il conclu. « Et nous pouvons affirmer avec certitude que nous avons résolu ou progressons considérablement sur ces trois problèmes. »

« Si nous disposions aujourd’hui de 100 000 robots fonctionnels, nos deux clients commerciaux les prendraient tous », a déclaré Adcock, incapable de tirer parti des chaînes d’approvisionnement à grande échelle, car elles n’existent pas encore ; il est encore tôt. Le pays gagnant reste incertain. « Et nous pourrions signer avec cinquante entreprises du Fortune 100 d’ici le week-end. Nous sommes submergés par la demande. L’offre de main-d’œuvre est en baisse. » La population en âge de travailler est en forte baisse dans les pays développés.  « La demande est illimitée. Nous pourrions livrer un million de robots ce mois-ci s’ils étaient tous prêts à l’emploi. »

J’ai demandé à Perplexity de me parler des principales entreprises produisant des robots humanoïdes. Perplexity est une IA qui excelle dans la recherche d’informations actualisées sur le web. J’utilise désormais différents robots selon le type de tâche. Je suppose qu’un jour, nous aurons tous plusieurs robots. Quoi qu’il en soit, Perplexity m’a présenté le top 10 des entreprises : Figure de Brett Adcock, Boston Dynamics, et bien d’autres dont je n’avais jamais entendu parler. Tesla figurait bien sûr dans la liste, avec son robot humanoïde Optimus, piloté par une IA propriétaire, qui devient plus intelligent chaque jour que je conduis.

Lire l’histoire complète ici…

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Un problème de connexion T-Mobile expose les données de localisation en temps réel des enfants et des véhicules à des utilisateurs aléatoires

Les parents qui ont ouvert l’application de suivi de T-Mobile se sont retrouvés à observer les enfants d’étrangers au lieu des leurs.

2–3 minutes

Le tracker GPS SyncUP de T-Mobile aurait « buggué » cette semaine et, au lieu de permettre aux parents de voir leurs enfants portant un appareil alimenté par le service, a commencé à leur montrer d’autres enfants, situés aux États-Unis.

404 Media rapporte avoir reçu des captures d’écran d’un utilisateur affecté de SyncUP – un parent qui, au lieu de pouvoir suivre les siens, a soudainement eu accès aux photos, aux noms, à la « localisation au niveau de l’adresse » des autres enfants, ainsi qu’aux informations de mise à jour de localisation jusqu’à « il y a une minute » et « tout à l’heure ».

Ces enfants se trouvaient dans différents États, et les parents ont déclaré qu’à chaque fois qu’ils se déconnectaient de l’application SyncUP, puis se reconnectaient dans l’espoir de résoudre le problème, des informations concernant un autre enfant apparaissaient au hasard. Dans le cas du parent cité dans l’article, cela s’est produit pas moins de huit fois.

La publication ne précise pas lequel des nombreux produits et services SyncUP est en question, mais étant donné qu’il est décrit comme « un petit traceur GPS pour les parents (…) qu’ils peuvent utiliser pour suivre les emplacements des jeunes enfants qui n’ont pas encore de téléphone portable » – il semble qu’il s’agisse d’une référence à la montre SyncUP KIDS de T-Mobile.

Deux enfants sourient à la montre connectée de l'un d'eux. Une image distincte de la montre affiche un appel de « Maman ». Le fond est rose et le texte « SyncUP KIDS connecté par T-Mobile » est affiché.

Il s’agit d’une montre connectée portée par les enfants qui permet une communication directe entre eux et leurs parents ou tuteurs, sans utiliser de téléphone.



Même si le problème était lié à la vie privée et à la sécurité potentielle des enfants, le parent cité sous le pseudonyme Jenna a trouvé que la réponse du support T-Mobile était insuffisante.

« Personne ne m’a pris au sérieux là-bas », a déclaré Jenna et a également révélé que malgré le dépôt d’un ticket et le suivi par e-mail, ils n’ont jamais reçu aucune information sur l’incident de la part du géant des télécommunications.

Dans une déclaration à 404 Media faite après la publication de la version originale de l’article, le responsable de la communication de crise de T-Mobile, Bennet Ladyman, a déclaré que le problème du 1er avril provenait d’une « mise à jour technologique planifiée » et avait entre-temps été entièrement résolu.

Ladyman a également déclaré qu’un « petit nombre de clients » était touché, tandis que l’entreprise était « en train de comprendre l’impact potentiel » et prendrait contact avec ces clients, « si nécessaire ».

La déclaration mentionne que le problème concernait les « produits SyncUP », au pluriel – et selon les témoignages d’utilisateurs publiés sur les réseaux sociaux, un autre service affecté était le service de suivi de voiture SyncUP Drive.

« Chaque fois que j’ouvre l’application, j’obtiens le véhicule (l’emplacement) d’une personne différente », a écrit un utilisateur de Reddit.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention