La surveillance biométrique s’étend discrètement aux sites sportifs américains

Le tournoi de golf de l’US Open et le nouveau Intuit Dome de la NBA mettent en œuvre une technologie de reconnaissance faciale pour une entrée « sans friction » et une personnalisation des fans, normalisant la surveillance dans les espaces de loisirs publics.

4–6 minutes

  • Les critiques avertissent que la commercialisation de ces systèmes comme des commodités cache des problèmes plus profonds, notamment une diminution de la confidentialité, un manque de consentement éclairé et l’expansion silencieuse de la surveillance biométrique dans la vie quotidienne.
  • Les concerts de Taylor Swift et le Madison Square Garden ont utilisé la reconnaissance faciale pour suivre ou bannir des individus à leur insu, soulevant des signaux d’alarme éthiques et juridiques concernant la discrimination, le ciblage et le manque de transparence.
  • Les États-Unis ne disposent pas d’une loi fédérale sur les données biométriques. Si certains États, comme l’Illinois et la Californie, disposent de protections, d’autres, comme New York, ont une réglementation incohérente ou limitée, ce qui laisse des lacunes en matière de protection des consommateurs.
  • Un article de juin du Barreau de l’État de New York exhorte les législateurs à s’attaquer à ces problèmes, avertissant que le déploiement incontrôlé de la reconnaissance faciale présente de graves risques pour les libertés civiles et la vie privée.

La surveillance biométrique ne se limite plus aux aéroports, aux postes-frontières ou aux zones de haute sécurité. Elle est de plus en plus testée et normalisée sur les fairways, les courts et les halls des stades à travers les États-Unis.

Lors de l’US Open de cette année à Oakmont, en Pennsylvanie, l’Association américaine de golf (USGA) a discrètement étendu l’ utilisation de la reconnaissance faciale pour l’entrée aux événements , en partenariat une fois de plus avec l’entreprise technologique britannique FortressGB et la société d’authentification faciale Wicket. Les spectateurs ont désormais la possibilité d’enregistrer leur visage à l’avance et de franchir les points d’entrée sans présenter de billet physique, pour une expérience fluide.

Cependant, les critiques ont averti que ce cadrage, qui vend la numérisation biométrique comme une simple commodité, masque un changement plus complexe et plus inquiétant : la normalisation de la surveillance faciale dans les espaces publics de loisirs, où les attentes d’anonymat et de confidentialité ont traditionnellement été plus élevées.

Le tournoi de golf n’est pas le seul à adopter cette tendance. De l’autre côté du pays, les Los Angeles Clippers de la National Basketball Association (NBA) s’apprêtent à ouvrir les portes de leur nouveau stade futuriste, l’Intuit Dome, avec une approche plus complète basée sur les données.



Géré par Halo Sports and Entertainment, une société appartenant à Steve Ballmer, ancien PDG de Microsoft et président des Clippers, le stade ne se contente pas de scanner les visages à l’entrée. Il mesure également le niveau sonore à chaque siège pour récompenser les supporters enthousiastes, utilise la reconnaissance faciale pour personnaliser les écrans d’accueil et collecte en continu des données comportementales afin d’améliorer l’expérience des supporters.

Ces deux cas reflètent une tendance croissante dans le sport américain : les stades deviennent des bancs d’essai pour les technologies de surveillance de pointe , sous couvert d’amélioration de la vitesse, de la sécurité et de la personnalisation. Pourtant, à mesure que ces systèmes s’intègrent de plus en plus, leurs conséquences à long terme, notamment en matière de confidentialité des données et de libertés civiles, restent non résolues.

La NYSBA met en garde le public contre le manque de réglementation de la reconnaissance faciale

Un article publié en juin dernier par le barreau de l’État de New York (NYSBA) a mis en garde le public contre l’ utilisation croissante de la technologie de reconnaissance faciale dans les lieux de divertissement .

Cet article, rédigé par Kylie Ruff, diplômée de la promotion 2025 de la faculté de droit de l’Université St. John’s ,  explore la manière dont les établissements du pays se tournent de plus en plus vers la reconnaissance faciale pour simplifier la sécurité et l’accès. Cependant, il soutient que cela soulève de profondes questions sur la confidentialité, l’équité et l’équilibre entre sécurité et surveillance.

Par exemple, en 2019, l’équipe de sécurité de la pop star Taylor Swift a utilisé des bornes de numérisation faciale dans ses salles de concert pour traquer les harceleurs connus – une mesure qui a déclenché l’alarme lorsqu’il a été révélé que les numérisations avaient été effectuées à l’insu des fans ou sans leur consentement.

Récemment, Madison Square Garden (MSG) Entertainment a essuyé de vives critiques pour avoir utilisé la reconnaissance faciale afin d’exclure des avocats de cabinets engagés dans des litiges contre elle. Une mère s’est vu interdire de voir les Rockettes avec sa fille au seul motif qu’elle travaillait dans un cabinet d’avocats ayant une affaire en cours avec MSG. Aucune de ces exclusions n’était motivée par des antécédents criminels, mais uniquement par des affiliations et des critiques.

Ces pratiques, suggère Ruff, s’approchent dangereusement de l’instrumentalisation des outils de surveillance à des fins de représailles personnelles ou commerciales, sans surveillance ni responsabilité significatives. (Connexe :  Un dysfonctionnement de la technologie de reconnaissance faciale peut mettre en danger des personnes innocentes .)

De plus, les États-Unis ne disposent d’aucune réglementation exhaustive régissant la collecte, le stockage et l’utilisation des données biométriques, y compris la reconnaissance faciale. Seuls quelques États, dont l’Illinois et la Californie, ont adopté des lois obligeant les entreprises à obtenir le consentement des utilisateurs ou à proposer des mécanismes de refus. Si la ville de New York impose la divulgation biométrique dans les environnements commerciaux, l’État manque d’une approche uniforme.

Les sources incluent :

ReclaimtheNet.org

BiometricUpdate.com

NYSBA.org

Brighteon.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


La surveillance biométrique s’étend au sport : l’US Open et l’Intuit Dome des Clippers adoptent la reconnaissance faciale

Ce qui ressemble à une voie rapide VIP redessine en réalité discrètement les limites du consentement personnel.

2–3 minutes

La surveillance biométrique devient progressivement partie intégrante de la vie quotidienne, le monde du sport servant désormais de terrain d’essai.

À l’US Open d’Oakmont, en Pennsylvanie, les spectateurs bénéficient à nouveau d’une entrée sans accroc grâce à un système de capture de données faciales. L’US Golf Association a renouvelé son partenariat avec FortressGB et Wicket pour la mise en œuvre d’une technologie de lecture de puces et de reconnaissance faciale pour la billetterie du tournoi de cette année.

Amanda Weiner, directrice générale des médias et de la billetterie à l’USGA, a déclaré au Pittsburgh Post-Gazette : « Nous savons que les gens sont là pour regarder les meilleurs joueurs du monde, et non pour faire la queue. C’est la raison principale pour laquelle nous investissons dans cette technologie. »

Mais ce cadre axé sur la commodité passe sous silence une préoccupation plus profonde : la normalisation du suivi biométrique lors d’événements de loisirs où les attentes en matière de confidentialité devraient être plus élevées, et non diminuées.



Plus :  Coupe du monde 2026 : où les fans de football s’affrontent grâce à la reconnaissance faciale

Les spectateurs peuvent toujours entrer avec leur pass ou leur téléphone, mais le système d’accès par reconnaissance faciale de Wicket va encore plus loin. Ceux qui enregistrent leurs données biométriques à l’avance peuvent contourner complètement les contrôles traditionnels, une approche présentée comme transparente.

Cela facilite également l’accès pour le personnel et les joueurs, mais les implications plus larges de ces systèmes de collecte, de stockage et de traitement des données faciales restent sans réponse.

Pendant ce temps, à Los Angeles, les Clippers de la NBA accélèrent cette tendance dans leur nouveau Intuit Dome. Exploité par Halo Sports and Entertainment, une société appartenant à Steve Ballmer, président des Clippers et ancien PDG de Microsoft, le lieu collecte des données sous le signe de la personnalisation.

Le stade approfondit ce modèle basé sur les données en mesurant le niveau de décibels à chaque siège afin d’identifier et de récompenser les supporters les plus bruyants. Des écrans personnalisés accueillent les visiteurs à leur entrée.

Les dimensions juridiques et éthiques de cette technologie sont devenues impossibles à ignorer.

En l’absence d’un cadre national unifié, la responsabilité incombe aux États, ce qui crée une approche fragmentée et incohérente.

Bien que présentés comme des améliorations favorables aux supporters, ces systèmes remodèlent le contrat social entre le public et les espaces qu’ils occupent. Ce qui est présenté comme une commodité pourrait, à terme, s’avérer bien plus coûteux en termes de confidentialité perdue.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Une loi sur la surveillance vendue avec de douces assurances et de lourdes implications pour la vie privée numérique.

Le gouvernement autrichien a rejoint une liste croissante d’autorités dans des pays du monde entier qui recherchent activement des moyens d’imposer l’inclusion de portes dérobées de cryptage dans les applications de messagerie comme WhatsApp et Telegram, qui offrent des communications sécurisées.

2–3 minutes

La tendance anti-cryptage se poursuit, malgré les avertissements constants des experts en technologie et des défenseurs de la vie privée selon lesquels le cryptage ne peut pas être brisé d’une manière qui ne donne accès qu’aux « bons gars » comme les gouvernements et les forces de l’ordre tout en empêchant les acteurs malveillants d’entrer.

Mais lorsqu’il a évoqué plus tôt cette semaine un projet de loi visant à permettre la surveillance des communications jusque-là privées sur des applications cryptées, le ministre autrichien de l’Intérieur, Gerhard Karner (ÖVP), s’en est tenu au discours régulièrement répété selon lequel la police avait besoin d’un accès pour « égaliser les chances » tout en combattant « les terroristes et les extrémistes ».

Cette dernière définition semble couvrir les personnes qui se livrent à des « activités menaçant la Constitution ».

Malgré cette définition assez large, Karner a osé prédire que la police n’utiliserait pas les nouveaux pouvoirs importants proposés autrement que pour enquêter sur « quelques cas individuels par an ».

Sans entrer dans les détails de la manière dont il est arrivé à ce chiffre – ou comment une telle chose pourrait être prédite, à moins qu’il ne s’agisse simplement d’une tentative de minimiser l’opposition à de tels projets – le ministre a poursuivi en déclarant que les forces de l’ordre limiteraient leurs nouvelles capacités d’espionnage aux cas de suspicion de préparation d’une attaque terroriste, de formation de groupes terroristes – et « cela peut également être utilisé à des fins d’espionnage », a déclaré Karner.

Entre-temps, il a promis que « la population n’est pas affectée par cela ».

Autrement dit, la population doit faire confiance au gouvernement et à ses forces de l’ordre pour ne pas abuser à aucun moment de leur pouvoir d’accès et de lecture de leurs messages à des fins antidémocratiques comme la surveillance de masse.

Bien que ces craintes soient parfaitement raisonnables, le partenaire de coalition de Karner, le secrétaire d’État Jorg Leichtfried (SPO), les a rejetées, déclarant ne « voir aucun danger de surveillance de masse » découlant du projet de loi.

Au lieu d’entrer dans les détails des raisons pour lesquelles il en est ainsi, Leichtfried a continué à dire à « la population » ce qu’elle devrait ressentir, demandant en fait une confiance aveugle.

« La population doit avoir le sentiment que le pays devient plus sûr », a déclaré ce responsable.

Le troisième partenaire de la coalition au pouvoir, NEOS, n’est cependant pas entièrement d’accord.

Mais Karner pense que les deux autres partis parviendront à « convaincre » NEOS, au cours de la « longue période d’examen de huit semaines » du projet.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


La Chine étend son système de crédit social avec 23 nouvelles directives visant à renforcer la surveillance et à renforcer la loyauté politique

Un comportement autrefois considéré comme personnel est désormais un indicateur dans le calcul de l’obéissance du Parti.

1–2 minutes

Le parti au pouvoir en Chine a introduit une nouvelle série de 23 directives visant à étendre son infrastructure de crédit social déjà tentaculaire, renforçant un système qui attribue des scores comportementaux aux citoyens et aux organisations afin de contrôler l’accès aux services et opportunités de base.

Publiées par l’ agence de presse Xinhua , soutenue par l’État , ces nouvelles mesures sont présentées comme une stratégie visant à remédier à ce que le gouvernement décrit comme une surveillance fragmentée et un partage limité des données. Mais en pratique, cette réforme revient à renforcer la surveillance, qui renforce le contrôle non seulement des particuliers et des entreprises, mais aussi des collectivités locales et des institutions publiques.

Plus :  Le système de crédit social chinois est sur le point d’évoluer, alors que l’Occident commence à mettre en œuvre certaines de ses fonctionnalités 

Le système de crédit social agrège des données personnelles et institutionnelles pour générer des classements qui influencent tout. Un comportement jugé inacceptable par le Parti communiste – comme la participation à une activité religieuse, l’expression d’une dissidence ou même des infractions mineures comme traverser la rue sans autorisation – peut entraîner des sanctions. Avec l’élargissement progressif du champ d’application du système au fil des ans, ce qui n’était au départ qu’un outil de crédibilité financière s’est transformé en un mécanisme de contrôle de la conformité sociale.

Le nouveau cadre vise à fluidifier la collecte et la diffusion des données entre les ministères, sous couvert d’efficacité. Selon Xinhua, ces directives étendront la portée du système à « tous types d’entités », englobant non seulement les entreprises privées, mais aussi les organismes gouvernementaux et les entreprises publiques.

Xinhua a affirmé que les changements seraient mis en œuvre conformément aux garanties visant à protéger « la sécurité de l’information et les droits individuels ». Mais ces assurances n’ont guère apaisé les inquiétudes de ceux qui considèrent le système comme intrinsèquement coercitif et opaque, en particulier lorsqu’il est utilisé pour réprimer la dissidence et récompenser l’obéissance politique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Meta menace de retirer WhatsApp de Suède en raison d’un projet de loi sur la surveillance

Meta trace une ligne rouge en Suède alors que les législateurs poussent vers des portes dérobées de cryptage, mettant en garde contre une sortie potentielle de WhatsApp.

2–3 minutes

Meta n’a pas pour habitude de se retirer des marchés. Mais en Suède, l’entreprise adopte une ligne dure. Si le gouvernement adopte un projet de loi sur la surveillance exigeant un accès par porte dérobée aux messages chiffrés, WhatsApp pourrait se retirer complètement du pays.

Janne Elvelid, responsable de la politique de Meta en Suède, n’a pas mâché ses mots lorsqu’il s’est adressé au journaliste Emanuel Karlsten :

« Nous mettons tout en œuvre pour soutenir la police dans sa lutte contre la criminalité », a déclaré Elvelid. « Mais cela ne signifie pas que nous allons compromettre la sécurité et la confidentialité de nos utilisateurs. Nous sommes prêts à accepter que nos services ne soient pas disponibles partout ni dans tous les pays si c’est le prix à payer pour tenir notre promesse de sécurité envers nos utilisateurs. »

Cette déclaration constitue autant un avertissement adressé à la Suède qu’une déclaration sur la stratégie globale de Meta. L’entreprise, propriétaire de WhatsApp et de Messenger, prospère sur les marchés où elle peut dicter ses conditions d’engagement. Elle a déjà mené des combats similaires, résistant aux demandes gouvernementales d’accès aux données sous couvert de protection des utilisateurs, tout en continuant à collecter d’importantes quantités de métadonnées à ses propres fins.

Le gouvernement suédois, quant à lui, considère cela comme un enjeu de sécurité. Le projet de loi donnerait à la police et aux services de renseignement le pouvoir d’intercepter les communications numériques, y compris les messages chiffrés, en cas d’urgence nationale, de guerre ou d’enquêtes criminelles graves. Il obligerait également les fournisseurs d’applications à conserver les métadonnées, c’est-à-dire les informations sur les personnes qui communiquent avec qui, pendant une période maximale de deux ans.

Mais l’aspect le plus controversé de la loi est la loi dite « bakdörrslag » (la « loi sur les portes dérobées »), qui obligerait les services de messagerie chiffrée à créer un moyen d’accès pour les autorités. Les risques de sécurité sont évidents : une fois qu’une porte dérobée existe, les gouvernements ne sont pas les seuls à pouvoir l’utiliser. Les criminels, les services de renseignement étrangers et toute personne suffisamment compétente pour exploiter cette vulnérabilité disposeraient d’un point d’accès aux communications privées.

Si WhatsApp et Signal se retirent de Suède, des millions de personnes se tourneront vers des plateformes moins sécurisées et potentiellement non réglementées. Les criminels, qui ont déjà recours à des tactiques d’évasion sophistiquées, ne seront pas pris au piège, mais les utilisateurs ordinaires.

Les forces armées suédoises ont notamment exprimé leurs inquiétudes concernant cette loi, non pas par opposition à la surveillance, mais par crainte des risques de sécurité liés à un chiffrement affaibli. Dans leur réponse officielle lors de la phase de consultation, elles se sont interrogées sur le risque que les mesures proposées rendent la Suède plus vulnérable aux menaces étrangères. Peu après, elles ont annoncé leur transition vers Signal pour leurs communications ouvertes, mais non classifiées, approuvant ainsi le chiffrement même que le gouvernement cherche à saper.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

La loi européenne sur l’IA légalise la surveillance biométrique de masse

L’UE n’est pas le modèle de protection de la vie privée qu’elle prétend être.

2–3 minutes

Le 2 février, la  première date limite de mise en conformité avec la loi sur l’intelligence artificielle de l’UE , entrée en vigueur en août, a été atteinte. Il s’agit de dispositions qui contiennent des règles permettant à l’Union de légaliser la surveillance biométrique de masse.

Cela se produit par le biais de  l’article 5 , qui cherche à première vue à introduire des protections contre l’utilisation de systèmes d’IA qui représentent un « risque inacceptable ». Mais il existe également des exceptions à cette règle, définies dans la loi comme les cas « strictement nécessaires » où l’utilisation de ces mêmes systèmes est autorisée.

C’est ce qui a fait naître la crainte que l’une des conséquences de la loi sur l’IA soit de légaliser certains déploiements très controversés de surveillance de masse alimentée par des données biométriques.

L’article 5 interdit aux forces de l’ordre d’utiliser des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, mais seulement « à moins que et dans la mesure où une telle utilisation est strictement nécessaire ».

Les cas « strictement nécessaires » sont décrits comme ceux où les forces de l’ordre recherchent des « victimes spécifiques » de crimes tels que l’enlèvement, la traite et l’exploitation sexuelle, mais aussi lorsqu’elles recherchent des personnes disparues.

La deuxième définition est moins précise dans sa portée, car elle permet d’utiliser des systèmes de surveillance par IA pour prévenir la criminalité. Cela inclut une menace à la vie ou à la sécurité physique des individus considérée comme « spécifique, substantielle et imminente » – ou une menace d’attaque terroriste que les forces de l’ordre jugent « réelle et présente » mais aussi « réelle et prévisible ».

Enfin, la loi sur l’IA considère comme « strictement nécessaires » pour exempter des activités d’IA interdites les activités suivantes : « Localisation ou identification d’une personne soupçonnée d’avoir commis une infraction pénale, aux fins de mener une enquête ou des poursuites pénales ou d’exécuter une sanction pénale pour des infractions. »

Ces infractions sont mentionnées à l’annexe II et sont punies dans les pays membres de l’UE pour une durée maximale d’au moins quatre ans.

En d’autres termes, de nombreux scénarios et interprétations « strictement nécessaires » permettant une surveillance biométrique de masse peuvent être dérivés de ces règles.

Pour faciliter l’application de la loi, l’UE a élaboré son « Pacte sur l’IA » – un autre des « engagements volontaires » du bloc signés par plus de 100 entreprises, dont Amazon, Google et OpenAI – mais pas par Meta et Apple.

Certains observateurs notent que les entreprises critiques à l’égard de la loi attendent de la clarté concernant les normes et les lignes directrices.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire