New York déploie discrètement une technologie de surveillance pré-criminelle

Une mauvaise posture, des paumes moites ou le fait de se parler à soi-même pourraient désormais être considérés comme des signes avant-coureurs d’un crime lors de votre trajet du matin.

3–5 minutes

Imaginez : c’est l’heure de pointe à New York. Un homme portant une casquette des Mets marmonne pour lui-même sur le quai du métro F, tournant en rond. Non loin de là, une femme consulte son téléphone cinq fois en dix secondes. Au-dessus de sa tête, des caméras surveillent la scène. Derrière les caméras ? Une machine. Et derrière cette machine ? Une armée de bureaucrates convaincus que les mauvaises ondes sont désormais une catégorie de délits.

Bienvenue dans le tout nouveau plan de la MTA pour assurer votre sécurité : un système de surveillance par IA conçu pour détecter les « comportements irrationnels ou inquiétants » avant même qu’ils ne surviennent. Ni après un crime, ni même pendant. Avant. Le genre de comportement qui, à une époque moins technophile, aurait pu être qualifié de « mauvaise journée ».

Michael Kemper, responsable de la sécurité de la MTA, l’homme qui se dresse entre nous et un avenir où se parler à soi-même signifie une visite du NYPD, appelle cela la « prévention prédictive ».

« L’IA est l’avenir », a assuré Kemper au comité de sécurité de la MTA.

Jusqu’à présent, la MTA insiste sur le fait qu’il ne s’agit pas de vous surveiller en tant que tel, mais de surveiller votre comportement. Aaron Donovan, porte-parole de la MTA et expert en matière de coupes en cheveux, a précisé : « La technologie explorée par la MTA est conçue pour identifier les comportements, et non les personnes. »

Et ne vous inquiétez pas pour la reconnaissance faciale, disent-ils. C’est hors de question. Pour l’instant. Ignorez simplement les dizaines de fournisseurs qui salivent actuellement à l’idée de contrats publics à plusieurs millions de dollars pour installer des logiciels de « détection des émotions » aussi précis que l’application d’horoscope de votre tante.

La couverture de sécurité préférée du gouverneur

Cette initiative n’est pas née de rien. Elle s’inscrit dans la lignée de la passion indéfectible de la gouverneure Kathy Hochul pour la surveillance . Depuis son entrée en fonction, elle a adopté une approche très minoritaire de la MTA, installant des caméras sur chaque quai et chaque voiture. Kemper rapporte qu’environ 40 % des caméras des quais sont surveillées en temps réel ; un exploit si l’on souhaite recréer l’initiative de 1984 en matière de transport régional.



Mais ce n’est pas suffisant. Maintenant, ils s’en prennent aussi aux conducteurs de train. Apparemment, le conducteur du train complote peut-être quelque chose.

La justification ? La sécurité publique, bien sûr. Ce chèque en blanc fiable pour chaque retrait de libertés civiles.

L’algorithme vous verra maintenant

Il existe une étrange croyance croissante parmi les bureaucrates modernes selon laquelle les algorithmes sont intrinsèquement plus intelligents que les humains. Qu’ils sont immunisés contre les mêmes failles malicieuses qui empoisonnent les policiers de quartier, les répartiteurs et les maires. Mais l’IA n’est pas une sorte de médium omniscient du métro. C’est un fouillis de codes et d’hypothèses, entraîné sur des données biaisées et présenté à l’aide de diapositives PowerPoint astucieuses par des consultants techniques qui ne survivraient pas cinq minutes dans une rame 4 bondée en direction du Bronx.

Le secrétaire américain aux Transports, Sean Duffy, a menacé de retirer le financement fédéral si l’agence ne proposait pas de stratégie de lutte contre la criminalité. Et lorsque Washington lui ordonne de se dépêcher, la MTA se demande si elle doit porter une caméra corporelle pendant ses déplacements.

La MTA a donc soumis un plan ; en gros, un réchauffé d’idées qu’elle mijotait déjà, avec, cette fois, plus de jargon et de paillettes d’IA.

Vous êtes le suspect maintenant

Tout cela s’inscrit parfaitement dans une tendance mondiale où les gouvernements confient la paranoïa aux machines. Du « Dejaview » sud-coréen aux échecs de la reconnaissance faciale au Royaume-Uni, en passant par le panoptique du crédit social chinois, la course est lancée pour savoir qui sera le premier à détecter les crimes de pensée grâce à des algorithmes. Le problème ? Les machines sont stupides. Et pire encore, elles apprennent de nous.

Ce qui signifie que quels que soient les modèles détectés par ces systèmes, ils refléteront les mêmes angles morts que nous avons déjà : simplement plus rapides, plus froids et avec une clause de déni plausible enfouie dans un contrat avec un fournisseur.

Et si la MTA se vante de trajets plus sûrs, en réalité, il s’agit avant tout de contrôle. De gestion de la perception. De pouvoir dire : « Nous avons fait quelque chose », même si cela transforme le système de transport en commun le plus célèbre du monde en un projet pilote de science-fiction raté.

Alors, allez-y. Arpentez nerveusement le quai. Changez trop souvent de position. Grattez-vous la tête en fronçant les sourcils. Dans le métro new-yorkais de demain, cela pourrait suffire à vous faire repérer comme une menace.

Voir l’article original cliquez ci-dessous :

Voir l’article




En savoir plus sur THE BLACK SUN

Abonnez-vous pour recevoir les derniers articles par e-mail.

Laisser un commentaire