Le système d’identification numérique écossais suscite des craintes de « Big Brother » face à la contestation de la vie privée

Le gouvernement écossais lance ScotAccount, un système d’identification numérique visant à centraliser l’accès aux services publics tels que les soins de santé, les impôts et les prestations sociales, ce qui suscite des inquiétudes quant à la confidentialité et aux excès de l’État.

5–7 minutes

  • Les critiques, y compris Big Brother Watch, avertissent que la base de données centralisée pourrait devenir une cible pour les pirates informatiques, permettre la surveillance gouvernementale et éroder les libertés individuelles, en particulier si l’adoption passe de volontaire à obligatoire.
  • Les experts soulignent les dangers tels que les violations de données biométriques et financières, craignant que le système puisse être exploité par des cybercriminels ou des acteurs hostiles, reflétant les controverses dans des pays comme la Chine et l’Inde.
  • Bien que facultatif, le système risque de marginaliser ceux qui n’ont pas accès au numérique ou qui s’en méfient, craignant qu’il ne devienne de facto obligatoire à mesure que les alternatives physiques disparaissent.
  • La controverse autour de ScotAccount reflète une tension plus large entre l’efficacité numérique et la confidentialité, faisant écho à des conflits passés (par exemple, les projets d’identification post-Brexit au Royaume-Uni) et soulignant la nécessité de garanties juridiques pour empêcher les excès de surveillance.

Le gouvernement écossais déploie actuellement un système national d’identification numérique, ScotAccount, conçu pour simplifier l’accès aux services publics tels que les soins de santé, les impôts et les prestations sociales. Cependant, les défenseurs de la vie privée mettent en garde contre le fait que cette base de données centralisée, qui s’inscrit dans une transition plus large vers la gouvernance numérique, menace les libertés individuelles en créant un référentiel vulnérable de données sensibles. Ses détracteurs, dont Big Brother Watch, affirment que le système risque de devenir obligatoire par défaut, exposant les utilisateurs au piratage informatique, aux excès de l’État et à l’érosion de la vie privée. Alors que les programmes pilotes se développent, les experts préconisent des garanties juridiques pour protéger les méthodes d’identification non numériques, craignant un avenir dystopique où la surveillance prend une place importante.

L’initiative ScotAccount : commodité ou contrôle ?

Le programme ScotAccount du gouvernement écossais, successeur du projet pilote Digital Identity Scotland, vise à fournir une identité numérique unifiée permettant aux citoyens d’accéder à plus de 40 services . Lancé dans un souci de commodité et de prévention de la fraude, ce système exige des utilisateurs qu’ils soumettent des données biométriques, notamment des photos, des passeports et des permis de conduire, vérifiées par des services tiers comme Experian. Selon un porte-parole du gouvernement écossais, le système utilise des « protocoles de chiffrement et d’authentification robustes » pour prévenir l’usurpation d’identité.

Pourtant, la centralisation des données suscite de plus en plus d’inquiétudes. La phase bêta de ScotAccount a déjà facilité l’accès à des services tels que la vérification du casier judiciaire et l’enregistrement des obsèques, et prévoit de l’étendre aux paiements d’impôts et aux dossiers médicaux. Bien qu’actuellement volontaire, les groupes de défense de la vie privée craignent que son caractère facultatif masque une évolution inévitable vers une utilisation obligatoire à mesure que les documents physiques deviennent obsolètes.

Les critiques tirent la sonnette d’alarme : des pirates informatiques, des pirates informatiques partout

Big Brother Watch, une organisation de défense des droits civiques, qualifie le système de « pot de miel pour criminels et pirates informatiques », évoquant les risques liés au stockage de vastes ensembles de données dans un seul et même emplacement . Madeleine Stone, porte-parole de l’organisation, prévient : « Ces projets pourraient donner carte blanche au gouvernement écossais pour constituer d’énormes ensembles de données sur l’ensemble de la population et partager des informations personnelles entre les services, désavantageant ainsi ceux qui dépendent de documents physiques. »

Les experts en sécurité sont du même avis. L’entreprise technologique Bridewell souligne les « graves menaces » d’une faille de sécurité, qui pourrait exposer des informations sensibles comme des données biométriques et des dossiers financiers, permettant ainsi l’usurpation d’identité ou la surveillance. Des cybercriminels ou des gouvernements hostiles pourraient exploiter le système, prévient l’entreprise.

La poussée vers des cartes d’identité numériques obligatoires

Le caractère facultatif du ScotAccount est remis en question, ses détracteurs affirmant qu’il constitue une obligation de fait. À mesure que de plus en plus de services adoptent des modèles privilégiant le numérique, les citoyens dépourvus d’identifiant numérique risquent d’être exclus de services essentiels. « Un droit légal à un identifiant non numérique est urgent », souligne Stone, afin d’éviter de marginaliser les millions de personnes qui n’ont pas accès au numérique ou qui se méfient des systèmes gouvernementaux.

Historiquement, d’autres nations, comme la Chine et l’Inde, ont été confrontées à des réactions négatives face aux identifications numériques permettant une surveillance de masse . Si les responsables écossais nient de telles intentions, l’absence de limites claires incite au scepticisme. Le gouvernement SNP a récemment attribué un contrat de 1,18 million de livres sterling (1,54 million de dollars) à l’entreprise technologique Scott Logic pour développer la phase finale du système, témoignant ainsi de sa détermination à aller de l’avant malgré l’opposition.

Les leçons des débats passés sur la surveillance

Les préoccupations en matière de confidentialité concernant les systèmes d’identification centralisés ne sont pas nouvelles. Le projet de système d’identification numérique post-Brexit du Royaume-Uni a fait l’objet de critiques similaires, tandis que la réglementation européenne relative au RGPD reflète des inquiétudes plus larges quant à l’exploitation des données. Le cas de l’Écosse, cependant, souligne la tension entre efficacité et autonomie.

À mesure que les gouvernements du monde entier adoptent des systèmes numériques, les enjeux deviennent plus importants. L’État de surveillance, autrefois un mythe dystopique, devient réalité. Pour l’Écosse, le déploiement de ScotAccount reflète une prise de conscience mondiale : le confort numérique peut-il coexister avec la vie privée, ou le coût de l’intégration est-il trop élevé ?

Conclusion : la frontière ténue entre la vie privée et l’ère numérique

L’initiative écossaise d’identification numérique représente un tournant pour la gouvernance moderne : concilier progrès technologique et libertés individuelles. Si ses partisans vantent une efficacité accrue et une réduction de la fraude, ses détracteurs y voient un abandon progressif de la vie privée. Le débat autour de ScotAccount dépasse l’Écosse et résonne à l’échelle mondiale, alors que les nations se débattent avec les implications éthiques de la numérisation.

Comme le résume succinctement Madeleine Stone : « Il ne s’agit pas seulement de technologie, mais de savoir si nous accordons plus d’importance aux droits individuels qu’à l’efficacité. » À l’ère de la montée de l’autoritarisme et des cybermenaces, les choix faits aujourd’hui pourraient définir les libertés que nous protégerons demain.

Les sources incluent :

ReclaimTheNet.org

BigBrotherWatch.org

PressReader.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



La nouvelle loi espagnole sur les médias suscite des craintes de censure et de contrôle de l’État

Les critiques avertissent que le projet de loi pourrait étouffer la liberté de la presse en accordant aux autorités des pouvoirs étendus en matière de régulation et de financement des médias.

3–4 minutes

Le Conseil des ministres espagnol a approuvé mardi 25 février le projet de loi de la nouvelle loi sur les services et les médias numériques, coïncidant avec le premier anniversaire de l’ affaire Begoña (une loi ad hoc du Parti socialiste ouvrier espagnol (PSOE) visant à empêcher que les proches du parti soient poursuivis).

Le gouvernement affirme que ce projet de loi est nécessaire pour aligner le système juridique espagnol sur les normes européennes. Or, ce nouveau projet de loi s’inscrit dans le cadre de la loi sur la liberté des médias de l’Union européenne, une réglementation qui, sous couvert de renforcer le pluralisme des médias, accorde aux institutions de l’État et de l’UE des outils extraordinaires pour superviser et réguler les médias. Loin de garantir l’indépendance journalistique, elle ouvre la porte à l’intervention de l’État et à d’éventuelles restrictions de la liberté de la presse.

Le gouvernement espagnol a passé l’année dernière à attaquer les médias critiques, les qualifiant de « fascistes » ou de diffuseurs de fausses informations. Les attaques ont commencé dès l’ouverture des enquêtes contre l’épouse et le cercle intime du Premier ministre Pedro Sánchez pour corruption présumée de fonds publics pendant les confinements liés à la pandémie de COVID-19. Cette loi fournirait un appui juridique aux attaques musclées contre les médias non contrôlés.

Le projet de loi prévoit la création d’un registre des médias d’État, géré par la Commission nationale des marchés et de la concurrence (CNMC), une organisation dont la direction a été nommée par le gouvernement actuel. L’observateur s’observe.

Ce registre obligera les médias à divulguer leur propriété, leurs sources de financement privées et leurs revenus provenant de la publicité publique. En outre, le projet de loi confère à la CNMC le pouvoir de procéder à des inspections, d’imposer des amendes pouvant aller jusqu’à 600 000 € et de suspendre temporairement les activités de tout média qui enfreindrait ses conditions.

Le gouvernement affirme que ce contrôle renforcera l’indépendance des médias, mais il pourrait devenir un outil de censure institutionnalisée. Dans sa prétendue mission de lutte contre la désinformation, la loi sur la liberté des médias pourrait au contraire servir à imposer un point de vue dominant, réduisant ainsi la diversité des médias et limitant l’accès des citoyens à l’information. 

Menaces contre la liberté du journalisme en Europe

Le projet de loi établit une distinction entre différents types de prestataires de services, notamment les plateformes numériques, les moteurs de recherche et les médias traditionnels. Ces derniers seront soumis à un régime de sanctions qui varie en fonction du type d’infraction, ce qui permettra au ministre de tutelle de décider de suspendre les activités des contrevenants.

L’essence du journalisme réside dans son indépendance et sa capacité à remettre en question le pouvoir. L’introduction de réglementations telles que la loi sur la liberté des médias et la nouvelle loi sur les services numériques en Espagne constitue une réelle menace pour la liberté de la presse, en permettant aux gouvernements d’interférer dans le contenu et le financement des médias.

Au lieu de garantir le pluralisme, ces réglementations pourraient signifier qu’un seul point de vue est autorisé, limitant l’accès à une information diversifiée et favorisant uniquement les médias alignés sur le pouvoir politique. Le risque de censure met en danger le travail journalistique et porte atteinte au droit fondamental des citoyens à recevoir des informations véridiques et équilibrées.

Ce scandale est encore plus remarquable à la lumière des récentes révélations sur la manière dont la Commission européenne a dépensé des milliards d’euros pour financer des associations et des ONG sympathisantes afin d’imposer sa version de la réalité à tous les États membres et à tous les citoyens sous le faux prétexte d’impartialité.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil