Le projet secret d’IA « Prédiction des homicides » du gouvernement britannique suscite des comparaisons dans les rapports minoritaires et des inquiétudes en matière de surveillance.

Enfoui dans un jargon bureaucratique, le plan transforme discrètement les données sur les traumatismes et la santé en prévisions.

2–3 minutes

Il a été révélé que le gouvernement britannique est impliqué dans le développement d’un autre projet dystopique, celui-ci étant comparé aux concepts explorés dans Minority Report, car il implique une analyse basée sur des algorithmes pour « prédire un meurtre ».

Le « Projet de prédiction des homicides » du ministère de la Justice (MoJ) – comme il était connu lors de son lancement, mais désormais désigné par l’expression générique « partage de données pour améliorer l’évaluation des risques » – utilise des informations appartenant à 100 000 à un demi-million de personnes, dans le but de découvrir qui est « le plus à risque » de devenir un meurtrier.

Statewatch a découvert le projet, lancé sous le gouvernement de Rishi Sunak. L’organisation de défense des droits civiques a utilisé les demandes d’accès à l’information et a souligné qu’il s’agissait d’un programme (auparavant) secret, impliquant un accord entre le ministère de la Santé, la police du Grand Manchester (GMP) et la police métropolitaine de Londres.

En réponse au rapport , le gouvernement britannique a déclaré qu’il s’agissait uniquement d’une recherche, « à ce stade ». Statewatch cite l’un des trois documents FOIA qu’il a consultés, dans lequel le ministère de la Justice mentionne une future « opérationnalisation » de ce système.

Les données utilisées sont initialement collectées par la police et proviennent non seulement de criminels ou de suspects, mais aussi de victimes, de témoins, de personnes disparues et de « personnes pour lesquelles il existe des préoccupations en matière de protection ».

Cependant, le ministère de la Justice affirme que seules les données des personnes condamnées sont utilisées, affirmant que les autres catégories ne sont pas incluses.

En ce qui concerne le type d’informations traitées par « l’outil prédictif », outre les noms, les dates de naissance, les sexes, les ethnies et l’identifiant unique de l’ordinateur national de la police, il existe également des « marqueurs de santé ».

Ces informations couvrent les antécédents de santé mentale d’une personne et des détails tels que la dépendance, l’automutilation, le suicide, la vulnérabilité et le handicap.

L’association Big Brother Watch a réagi à la nouvelle de ce projet en déclarant que le fait que le gouvernement se donne la possibilité d’utiliser des machines pour prédire qui pourrait devenir un tueur est « alarmant ».

La directrice par intérim Rebecca Vincent a fait remarquer que même lorsqu’un crime a déjà été commis, les algorithmes et l’IA peuvent toujours produire des conclusions erronées basées sur des preuves.

Utiliser la même technologie et les mêmes techniques pour tenter de « prédire les crimes » qui pourraient finalement cibler des personnes innocentes comporte « d’énormes implications en matière de vie privée », a déclaré Vincent, appelant à l’abandon immédiat du projet, le qualifiant de « cauchemar des droits de l’homme rappelant la science-fiction qui n’a pas sa place dans le monde réel, et certainement pas dans une démocratie ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention