La surveillance biométrique s’étend discrètement aux sites sportifs américains

Le tournoi de golf de l’US Open et le nouveau Intuit Dome de la NBA mettent en œuvre une technologie de reconnaissance faciale pour une entrée « sans friction » et une personnalisation des fans, normalisant la surveillance dans les espaces de loisirs publics.

4–6 minutes

  • Les critiques avertissent que la commercialisation de ces systèmes comme des commodités cache des problèmes plus profonds, notamment une diminution de la confidentialité, un manque de consentement éclairé et l’expansion silencieuse de la surveillance biométrique dans la vie quotidienne.
  • Les concerts de Taylor Swift et le Madison Square Garden ont utilisé la reconnaissance faciale pour suivre ou bannir des individus à leur insu, soulevant des signaux d’alarme éthiques et juridiques concernant la discrimination, le ciblage et le manque de transparence.
  • Les États-Unis ne disposent pas d’une loi fédérale sur les données biométriques. Si certains États, comme l’Illinois et la Californie, disposent de protections, d’autres, comme New York, ont une réglementation incohérente ou limitée, ce qui laisse des lacunes en matière de protection des consommateurs.
  • Un article de juin du Barreau de l’État de New York exhorte les législateurs à s’attaquer à ces problèmes, avertissant que le déploiement incontrôlé de la reconnaissance faciale présente de graves risques pour les libertés civiles et la vie privée.

La surveillance biométrique ne se limite plus aux aéroports, aux postes-frontières ou aux zones de haute sécurité. Elle est de plus en plus testée et normalisée sur les fairways, les courts et les halls des stades à travers les États-Unis.

Lors de l’US Open de cette année à Oakmont, en Pennsylvanie, l’Association américaine de golf (USGA) a discrètement étendu l’ utilisation de la reconnaissance faciale pour l’entrée aux événements , en partenariat une fois de plus avec l’entreprise technologique britannique FortressGB et la société d’authentification faciale Wicket. Les spectateurs ont désormais la possibilité d’enregistrer leur visage à l’avance et de franchir les points d’entrée sans présenter de billet physique, pour une expérience fluide.

Cependant, les critiques ont averti que ce cadrage, qui vend la numérisation biométrique comme une simple commodité, masque un changement plus complexe et plus inquiétant : la normalisation de la surveillance faciale dans les espaces publics de loisirs, où les attentes d’anonymat et de confidentialité ont traditionnellement été plus élevées.

Le tournoi de golf n’est pas le seul à adopter cette tendance. De l’autre côté du pays, les Los Angeles Clippers de la National Basketball Association (NBA) s’apprêtent à ouvrir les portes de leur nouveau stade futuriste, l’Intuit Dome, avec une approche plus complète basée sur les données.



Géré par Halo Sports and Entertainment, une société appartenant à Steve Ballmer, ancien PDG de Microsoft et président des Clippers, le stade ne se contente pas de scanner les visages à l’entrée. Il mesure également le niveau sonore à chaque siège pour récompenser les supporters enthousiastes, utilise la reconnaissance faciale pour personnaliser les écrans d’accueil et collecte en continu des données comportementales afin d’améliorer l’expérience des supporters.

Ces deux cas reflètent une tendance croissante dans le sport américain : les stades deviennent des bancs d’essai pour les technologies de surveillance de pointe , sous couvert d’amélioration de la vitesse, de la sécurité et de la personnalisation. Pourtant, à mesure que ces systèmes s’intègrent de plus en plus, leurs conséquences à long terme, notamment en matière de confidentialité des données et de libertés civiles, restent non résolues.

La NYSBA met en garde le public contre le manque de réglementation de la reconnaissance faciale

Un article publié en juin dernier par le barreau de l’État de New York (NYSBA) a mis en garde le public contre l’ utilisation croissante de la technologie de reconnaissance faciale dans les lieux de divertissement .

Cet article, rédigé par Kylie Ruff, diplômée de la promotion 2025 de la faculté de droit de l’Université St. John’s ,  explore la manière dont les établissements du pays se tournent de plus en plus vers la reconnaissance faciale pour simplifier la sécurité et l’accès. Cependant, il soutient que cela soulève de profondes questions sur la confidentialité, l’équité et l’équilibre entre sécurité et surveillance.

Par exemple, en 2019, l’équipe de sécurité de la pop star Taylor Swift a utilisé des bornes de numérisation faciale dans ses salles de concert pour traquer les harceleurs connus – une mesure qui a déclenché l’alarme lorsqu’il a été révélé que les numérisations avaient été effectuées à l’insu des fans ou sans leur consentement.

Récemment, Madison Square Garden (MSG) Entertainment a essuyé de vives critiques pour avoir utilisé la reconnaissance faciale afin d’exclure des avocats de cabinets engagés dans des litiges contre elle. Une mère s’est vu interdire de voir les Rockettes avec sa fille au seul motif qu’elle travaillait dans un cabinet d’avocats ayant une affaire en cours avec MSG. Aucune de ces exclusions n’était motivée par des antécédents criminels, mais uniquement par des affiliations et des critiques.

Ces pratiques, suggère Ruff, s’approchent dangereusement de l’instrumentalisation des outils de surveillance à des fins de représailles personnelles ou commerciales, sans surveillance ni responsabilité significatives. (Connexe :  Un dysfonctionnement de la technologie de reconnaissance faciale peut mettre en danger des personnes innocentes .)

De plus, les États-Unis ne disposent d’aucune réglementation exhaustive régissant la collecte, le stockage et l’utilisation des données biométriques, y compris la reconnaissance faciale. Seuls quelques États, dont l’Illinois et la Californie, ont adopté des lois obligeant les entreprises à obtenir le consentement des utilisateurs ou à proposer des mécanismes de refus. Si la ville de New York impose la divulgation biométrique dans les environnements commerciaux, l’État manque d’une approche uniforme.

Les sources incluent :

ReclaimtheNet.org

BiometricUpdate.com

NYSBA.org

Brighteon.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Une seule notification peut discrètement cartographier vos habitudes, votre réseau et votre nom.

En 2023, nous avions rapporté comment les agences américaines utilisaient les métadonnées des notifications push sur les smartphones à des fins de surveillance, faisant pression sur des entreprises technologiques comme Apple et Google pour qu’elles leur transmettent les informations des utilisateurs. Suite à l’enquête du sénateur Ron Wyden, Apple a révélé qu’il lui était légalement interdit de divulguer cette pratique, ce qui suscite de vives inquiétudes quant aux libertés civiles et aux excès de pouvoir du gouvernement.

2–3 minutes

Aujourd’hui, les demandes gouvernementales d’informations sur les utilisateurs liées au système de notification push d’Apple se sont poursuivies au cours du premier semestre 2024, le Royaume-Uni ayant soumis 141 demandes, malgré la taille relativement petite du pays, et les États-Unis suivant avec 129.

L’Allemagne a également obtenu des données durant cette période. Singapour, malgré ses demandes de renseignements, n’en a reçu aucune. Ces chiffres proviennent du dernier rapport de transparence d’Apple, mettant en lumière l’intérêt des gouvernements mondiaux pour un vecteur de surveillance moins connu.

Protégez-vous :  les notifications d’applications sont un véritable cauchemar en matière de surveillance. Voici comment les gérer.

Même certaines applications de confidentialité peuvent être compromises par la surveillance au niveau des notifications push. De nombreuses applications dépendent d’Apple ou de Google pour l’envoi des notifications, des services qui peuvent exposer des métadonnées critiques, telles que l’application qui a envoyé la notification, la date et la fréquence de son envoi.

Ces métadonnées peuvent être utilisées par les gouvernements pour déduire l’activité et les connexions sociales des utilisateurs, voire les désanonymiser. Elles contournent entièrement le chiffrement au niveau de l’application, exploitant une couche indépendante de la volonté de l’utilisateur ou du développeur.

Le rapport d’Apple détaille les enjeux de ces demandes. Lorsqu’une personne active les notifications pour une application, le système génère un « jeton push » qui relie l’appareil et l’application à un compte Apple spécifique.

Selon l’entreprise, « les demandes de jeton push reposent sur un identifiant de jeton du service de notifications push d’Apple. Lorsqu’un utilisateur autorise une application installée à recevoir des notifications, un jeton push est généré et enregistré auprès du développeur et de l’appareil concernés. Les demandes de jeton push recherchent généralement des informations d’identification du compte Apple associé au jeton push de l’appareil, telles que le nom, l’adresse physique et l’adresse e-mail. »

Tant que les plateformes contrôlent l’infrastructure de notification et sont légalement tenues au secret, elles deviennent des partenaires silencieux dans un système qui compromet la confidentialité, même pour ceux qui utilisent des outils conçus pour la protéger.

Les données des jetons Push étaient accessibles par le biais d’assignations à comparaître, une voie plus facile pour les forces de l’ordre, jusqu’à ce qu’Apple ajuste sa politique à la fin de 2023. À partir de décembre, la société a commencé à exiger une ordonnance d’un juge avant de fournir ce type d’informations sur les utilisateurs.

Protégez-vous :  les notifications d’applications sont un véritable cauchemar en matière de surveillance. Voici comment les gérer.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Le London Times condamne la censure fantôme tout en approuvant discrètement le contrôle sélectif de la parole

Le Times met en garde contre les censeurs de l’ombre, mais garde ses propres projecteurs éteints lorsqu’il choisit qui museler.

2–3 minutes

Le comité de rédaction du London Times a récemment émis une critique acerbe de groupes comme le Global Disinformation Index (GDI) , les accusant d’agir comme des « censeurs autoproclamés » qui opèrent « dans l’ombre » et constituent une « menace pour la liberté d’expression ».

Pourtant, dans le même souffle, le Times révèle sa propre volonté d’adopter une approche sélective de la censure, à condition que les cibles correspondent à ses propres critères.

Bien que l’éditorial établisse une distinction claire entre les mensonges malveillants et la dissidence légitime, il ne rejette pas catégoriquement la censure.

Au lieu de cela, il crée une exception : « la désinformation nuisible, comme une vidéo trafiquée conçue pour provoquer de la détresse ou attiser les tensions, est une chose ; le journalisme légitime cherchant à remettre en question le statu quo en est une autre. »

Cette distinction peut paraître raisonnable à première vue, mais elle dépend entièrement de la question de savoir qui décide de ce qui est « nuisible ». En pratique, cela permet de museler la parole en vertu de définitions subjectives, à condition que ces définitions correspondent aux sensibilités des élites.

Le Global Disinformation Index, une organisation à but non lucratif peu connue fondée en 2018, s’est donné pour mission de noter les organes de presse sur la base de vagues notions de « fiabilité ».

Ses rapports, utilisés pour influencer les décisions publicitaires en ligne , peuvent étrangler financièrement les médias en les plaçant sur des listes d’exclusion. Une fois signalée, une publication peut voir ses revenus publicitaires s’évaporer, les annonceurs s’éloignant, souvent sans que le public, ni la publication, ne sachent pourquoi.

Leur influence dépasse de loin celle des éditeurs ou des éditeurs traditionnels, en grande partie parce qu’ils opèrent par le biais d’algorithmes et d’incitations financières, ciblant les revenus plutôt que le contenu directement.

L’éditorial du Times n’adhère pas pleinement au principe d’enquête ouverte. Tout en dénonçant le secret et l’arrogance d’organisations comme le GDI, il laisse la porte ouverte à la censure, à condition qu’elle cible les contenus qui, selon eux, franchissent une ligne indéfinie de « préjudice ».

Cela contredit l’avertissement de l’éditorial lui-même concernant l’effet dissuasif d’une application sélective. Dès lors qu’une autorité se voit conférer le pouvoir de juger la vérité au profit de sa suppression, la liberté de presse et d’expression, pourtant essentielle, est d’ores et déjà compromise.

En appelant à la protection du « journalisme légitime » tout en concédant la nécessité de lutter contre la « désinformation nuisible », le Times tombe dans le même piège qu’il critique. Il accorde une liberté morale et éditoriale pour définir l’acceptabilité, non pas en fonction de la transparence, de la responsabilité ou du débat ouvert, mais en fonction de l’intention perçue et de l’impact potentiel. Le risque, comme toujours, est que cette norme soit utilisée non pas pour protéger le public, mais pour protéger les puissants.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



New York déploie discrètement une technologie de surveillance pré-criminelle

Une mauvaise posture, des paumes moites ou le fait de se parler à soi-même pourraient désormais être considérés comme des signes avant-coureurs d’un crime lors de votre trajet du matin.

3–5 minutes

Imaginez : c’est l’heure de pointe à New York. Un homme portant une casquette des Mets marmonne pour lui-même sur le quai du métro F, tournant en rond. Non loin de là, une femme consulte son téléphone cinq fois en dix secondes. Au-dessus de sa tête, des caméras surveillent la scène. Derrière les caméras ? Une machine. Et derrière cette machine ? Une armée de bureaucrates convaincus que les mauvaises ondes sont désormais une catégorie de délits.

Bienvenue dans le tout nouveau plan de la MTA pour assurer votre sécurité : un système de surveillance par IA conçu pour détecter les « comportements irrationnels ou inquiétants » avant même qu’ils ne surviennent. Ni après un crime, ni même pendant. Avant. Le genre de comportement qui, à une époque moins technophile, aurait pu être qualifié de « mauvaise journée ».

Michael Kemper, responsable de la sécurité de la MTA, l’homme qui se dresse entre nous et un avenir où se parler à soi-même signifie une visite du NYPD, appelle cela la « prévention prédictive ».

« L’IA est l’avenir », a assuré Kemper au comité de sécurité de la MTA.

Jusqu’à présent, la MTA insiste sur le fait qu’il ne s’agit pas de vous surveiller en tant que tel, mais de surveiller votre comportement. Aaron Donovan, porte-parole de la MTA et expert en matière de coupes en cheveux, a précisé : « La technologie explorée par la MTA est conçue pour identifier les comportements, et non les personnes. »

Et ne vous inquiétez pas pour la reconnaissance faciale, disent-ils. C’est hors de question. Pour l’instant. Ignorez simplement les dizaines de fournisseurs qui salivent actuellement à l’idée de contrats publics à plusieurs millions de dollars pour installer des logiciels de « détection des émotions » aussi précis que l’application d’horoscope de votre tante.

La couverture de sécurité préférée du gouverneur

Cette initiative n’est pas née de rien. Elle s’inscrit dans la lignée de la passion indéfectible de la gouverneure Kathy Hochul pour la surveillance . Depuis son entrée en fonction, elle a adopté une approche très minoritaire de la MTA, installant des caméras sur chaque quai et chaque voiture. Kemper rapporte qu’environ 40 % des caméras des quais sont surveillées en temps réel ; un exploit si l’on souhaite recréer l’initiative de 1984 en matière de transport régional.



Mais ce n’est pas suffisant. Maintenant, ils s’en prennent aussi aux conducteurs de train. Apparemment, le conducteur du train complote peut-être quelque chose.

La justification ? La sécurité publique, bien sûr. Ce chèque en blanc fiable pour chaque retrait de libertés civiles.

L’algorithme vous verra maintenant

Il existe une étrange croyance croissante parmi les bureaucrates modernes selon laquelle les algorithmes sont intrinsèquement plus intelligents que les humains. Qu’ils sont immunisés contre les mêmes failles malicieuses qui empoisonnent les policiers de quartier, les répartiteurs et les maires. Mais l’IA n’est pas une sorte de médium omniscient du métro. C’est un fouillis de codes et d’hypothèses, entraîné sur des données biaisées et présenté à l’aide de diapositives PowerPoint astucieuses par des consultants techniques qui ne survivraient pas cinq minutes dans une rame 4 bondée en direction du Bronx.

Le secrétaire américain aux Transports, Sean Duffy, a menacé de retirer le financement fédéral si l’agence ne proposait pas de stratégie de lutte contre la criminalité. Et lorsque Washington lui ordonne de se dépêcher, la MTA se demande si elle doit porter une caméra corporelle pendant ses déplacements.

La MTA a donc soumis un plan ; en gros, un réchauffé d’idées qu’elle mijotait déjà, avec, cette fois, plus de jargon et de paillettes d’IA.

Vous êtes le suspect maintenant

Tout cela s’inscrit parfaitement dans une tendance mondiale où les gouvernements confient la paranoïa aux machines. Du « Dejaview » sud-coréen aux échecs de la reconnaissance faciale au Royaume-Uni, en passant par le panoptique du crédit social chinois, la course est lancée pour savoir qui sera le premier à détecter les crimes de pensée grâce à des algorithmes. Le problème ? Les machines sont stupides. Et pire encore, elles apprennent de nous.

Ce qui signifie que quels que soient les modèles détectés par ces systèmes, ils refléteront les mêmes angles morts que nous avons déjà : simplement plus rapides, plus froids et avec une clause de déni plausible enfouie dans un contrat avec un fournisseur.

Et si la MTA se vante de trajets plus sûrs, en réalité, il s’agit avant tout de contrôle. De gestion de la perception. De pouvoir dire : « Nous avons fait quelque chose », même si cela transforme le système de transport en commun le plus célèbre du monde en un projet pilote de science-fiction raté.

Alors, allez-y. Arpentez nerveusement le quai. Changez trop souvent de position. Grattez-vous la tête en fronçant les sourcils. Dans le métro new-yorkais de demain, cela pourrait suffire à vous faire repérer comme une menace.

Voir l’article original cliquez ci-dessous :

Voir l’article