Appel à l’interdiction des applications d’IA créant des images nues d’enfants

Le commissaire à l’enfance d’Angleterre appelle le gouvernement à interdire les applications qui utilisent l’intelligence artificielle (IA) pour créer des images sexuellement explicites d’enfants.

3–5 minutes

Dame Rachel de Souza a déclaré qu’une interdiction totale était nécessaire sur les applications qui permettent la « nudification » – où des photos de vraies personnes sont éditées par l’IA pour les faire apparaître nues.

Elle a déclaré que le gouvernement permettait à de telles applications de « fonctionner sans contrôle, avec des conséquences extrêmes dans le monde réel ».

Un porte-parole du gouvernement a déclaré que le matériel d’abus sexuels sur mineurs était illégal et qu’il était prévu d’incriminer davantage la création, la possession ou la distribution d’outils d’IA conçus pour créer de tels contenus.

Les deepfakes sont des vidéos, des images ou des clips audio créés avec l’IA pour paraître ou paraître réels.

Dans un rapport publié lundi, Dame Rachel a déclaré que la technologie ciblait de manière disproportionnée les filles et les jeunes femmes, de nombreuses applications sur mesure semblant fonctionner uniquement sur les corps féminins.

Selon le rapport, les filles évitent activement de publier des images ou de s’engager en ligne pour réduire le risque d’être ciblées, « de la même manière que les filles suivent d’autres règles pour assurer leur sécurité dans le monde hors ligne, comme ne pas rentrer seule chez elles le soir ».

Les enfants craignaient qu’un « étranger, un camarade de classe ou même un ami » puisse les cibler en utilisant des technologies disponibles sur les plateformes de recherche et de médias sociaux populaires.

Dame Rachel a déclaré : « L’évolution de ces outils se produit à une telle échelle et à une telle vitesse qu’il peut être difficile d’essayer de comprendre le danger qu’ils présentent.

« Nous ne pouvons pas rester les bras croisés et permettre à ces applications d’IA sur mesure d’avoir une emprise aussi dangereuse sur la vie des enfants. »

En vertu de la loi sur la sécurité en ligne, il est illégal de partager ou de menacer de partager des images deepfake explicites.

Le gouvernement a annoncé en février des lois visant à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’IA, notamment en rendant illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer ce type de matériel.

Dame Rachel a déclaré que cela n’allait pas assez loin, son porte-parole déclarant à la BBC : « Il ne devrait pas y avoir d’applications nudifiantes, et pas seulement d’applications classées comme génératrices d’abus sexuels sur mineurs. »

Augmentation des cas signalés

En février, l’Internet Watch Foundation (IWF) – une organisation caritative basée au Royaume-Uni financée en partie par des entreprises technologiques – avait confirmé 245 signalements d’abus sexuels sur enfants générés par l’IA en 2024, contre 51 en 2023, soit une augmentation de 380 %.

« Nous savons que ces applications sont utilisées à mauvais escient dans les écoles et que les images deviennent rapidement incontrôlables », a déclaré lundi le directeur général par intérim de l’IWF, Derek Ray-Hill.

Un porte-parole du ministère des Sciences, de l’Innovation et de la Technologie a déclaré que la création, la possession ou la distribution de matériel d’abus sexuels sur des enfants, y compris des images générées par l’IA, est « odieuse et illégale ».

« En vertu de la loi sur la sécurité en ligne, les plateformes de toutes tailles doivent désormais supprimer ce type de contenu, sous peine d’amendes importantes », ont-ils ajouté.

« Le Royaume-Uni est le premier pays au monde à introduire de nouvelles infractions d’abus sexuels sur mineurs par l’IA, rendant illégale la possession, la création ou la distribution d’outils d’IA conçus pour générer du matériel odieux d’abus sexuels sur mineurs. »

Dame Rachel a également appelé le gouvernement à :

  • imposer des obligations légales aux développeurs d’outils d’IA générative pour identifier et traiter les risques que leurs produits présentent pour les enfants et prendre des mesures pour atténuer ces risques
  • mettre en place un processus systémique pour supprimer les images deepfake sexuellement explicites d’enfants d’Internet
  • reconnaître les abus sexuels deepfake comme une forme de violence contre les femmes et les filles

Paul Whiteman, secrétaire général du syndicat des chefs d’établissement NAHT, a déclaré que les membres partageaient les préoccupations du commissaire.

Il a déclaré : « C’est un domaine qui doit être revu de toute urgence, car la technologie risque de dépasser la loi et l’éducation qui l’entoure. »

L’organisme de régulation des médias Ofcom a publié vendredi la version finale de son Code des enfants , qui impose des exigences légales aux plateformes hébergeant de la pornographie et des contenus encourageant l’automutilation, le suicide ou les troubles alimentaires, afin de prendre davantage de mesures pour empêcher l’accès des enfants.

Les sites Internet doivent introduire des contrôles d’âge renforcés sous peine de lourdes amendes, a déclaré le régulateur.

Dame Rachel a critiqué le code en déclarant qu’il donne la priorité aux « intérêts commerciaux des entreprises technologiques plutôt qu’à la sécurité des enfants ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Le projet secret d’IA « Prédiction des homicides » du gouvernement britannique suscite des comparaisons dans les rapports minoritaires et des inquiétudes en matière de surveillance.

Enfoui dans un jargon bureaucratique, le plan transforme discrètement les données sur les traumatismes et la santé en prévisions.

2–3 minutes

Il a été révélé que le gouvernement britannique est impliqué dans le développement d’un autre projet dystopique, celui-ci étant comparé aux concepts explorés dans Minority Report, car il implique une analyse basée sur des algorithmes pour « prédire un meurtre ».

Le « Projet de prédiction des homicides » du ministère de la Justice (MoJ) – comme il était connu lors de son lancement, mais désormais désigné par l’expression générique « partage de données pour améliorer l’évaluation des risques » – utilise des informations appartenant à 100 000 à un demi-million de personnes, dans le but de découvrir qui est « le plus à risque » de devenir un meurtrier.

Statewatch a découvert le projet, lancé sous le gouvernement de Rishi Sunak. L’organisation de défense des droits civiques a utilisé les demandes d’accès à l’information et a souligné qu’il s’agissait d’un programme (auparavant) secret, impliquant un accord entre le ministère de la Santé, la police du Grand Manchester (GMP) et la police métropolitaine de Londres.

En réponse au rapport , le gouvernement britannique a déclaré qu’il s’agissait uniquement d’une recherche, « à ce stade ». Statewatch cite l’un des trois documents FOIA qu’il a consultés, dans lequel le ministère de la Justice mentionne une future « opérationnalisation » de ce système.

Les données utilisées sont initialement collectées par la police et proviennent non seulement de criminels ou de suspects, mais aussi de victimes, de témoins, de personnes disparues et de « personnes pour lesquelles il existe des préoccupations en matière de protection ».

Cependant, le ministère de la Justice affirme que seules les données des personnes condamnées sont utilisées, affirmant que les autres catégories ne sont pas incluses.

En ce qui concerne le type d’informations traitées par « l’outil prédictif », outre les noms, les dates de naissance, les sexes, les ethnies et l’identifiant unique de l’ordinateur national de la police, il existe également des « marqueurs de santé ».

Ces informations couvrent les antécédents de santé mentale d’une personne et des détails tels que la dépendance, l’automutilation, le suicide, la vulnérabilité et le handicap.

L’association Big Brother Watch a réagi à la nouvelle de ce projet en déclarant que le fait que le gouvernement se donne la possibilité d’utiliser des machines pour prédire qui pourrait devenir un tueur est « alarmant ».

La directrice par intérim Rebecca Vincent a fait remarquer que même lorsqu’un crime a déjà été commis, les algorithmes et l’IA peuvent toujours produire des conclusions erronées basées sur des preuves.

Utiliser la même technologie et les mêmes techniques pour tenter de « prédire les crimes » qui pourraient finalement cibler des personnes innocentes comporte « d’énormes implications en matière de vie privée », a déclaré Vincent, appelant à l’abandon immédiat du projet, le qualifiant de « cauchemar des droits de l’homme rappelant la science-fiction qui n’a pas sa place dans le monde réel, et certainement pas dans une démocratie ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention