Le Danemark va protéger les individus contre les deepfakes grâce à une nouvelle législation

Le Danemark affirme être le premier pays à chercher à adopter une telle législation et qu’il discutera de la question avec d’autres États membres lors de sa prochaine présidence de l’UE.

2–3 minutes

Le Danemark lutte contre les deepfakes avec une nouvelle législation ciblant les imitations d’images de personnes générées par l’IA, qui vont souvent à l’encontre du caractère d’une personne donnée, parfois de manière grotesque, et qui peuvent devenir virales sur le Web. 

Le pays scandinave a déclaré qu’il serait le premier en Europe à introduire une telle modification à sa loi sur le droit d’auteur afin de garantir aux individus les outils juridiques nécessaires pour protéger leur apparence physique, y compris les traits du visage et la voix, et d’exiger le retrait des plateformes en ligne de tout contenu les imitant sans leur consentement. Dans sa forme actuelle, les contrevenants s’exposeront à des amendes, c’est-à-dire à une indemnisation, versée à la personne concernée. 

« Les médias étrangers ont découvert que le Danemark est le premier pays de l’UE à garantir le droit de disposer de son corps et de voter. C’est nécessaire à une époque où il n’a jamais été aussi facile de copier l’IA et de diffuser de la désinformation », a déclaré le ministre de la Culture, Jakob Engel-Schmidt, sur X, en joignant un article du Guardian. 

Il a ajouté qu’il discuterait de la proposition avec ses collègues de l’UE lorsque le Danemark prendra la présidence du Conseil de l’Union européenne en juillet prochain. 

Selon le Guardian , la nouvelle loi définit un deepfake « comme une représentation numérique très réaliste d’une personne, y compris son apparence et sa voix ».



Engel-Schmidt a affirmé catégoriquement que le Danemark n’autoriserait pas que des personnes soient « copiées sur une photocopieuse numérique et utilisées à toutes fins ». Il a déclaré au Guardian : « Avec ce projet de loi, nous sommes d’accord et envoyons un message clair : chacun a droit à son propre corps, à sa propre voix et à ses propres traits du visage, ce qui ne semble pas être la manière dont la loi actuelle protège les personnes contre l’IA générative. »

L’année dernière, de nombreuses célébrités (et leurs familles) ont dû dénoncer et même intenter des poursuites judiciaires suite à la diffusion de faux portraits en ligne. On a notamment pu citer un « nouveau » numéro comique de George Carlin, décédé en 2008, une vidéo promotionnelle pour Lisa AI utilisant l’image et la voix de Scarlett Johansson, et des services dentaires promus par Tom Hanks lui-même. 

Mais cela ne concerne pas que les célébrités. Les images et vidéos générées par l’IA sont utilisées pour susciter la sympathie et promouvoir des messages politiques, comme après l’ouragan Helene. Et ce mois-ci, Disney et Universal ont poursuivi Midjourney pour piratage d’images – de Spiderman à Dark Vador – appartenant à ces studios, qualifiant l’affaire de « puits sans fond de plagiat ».

Les parodies et la satire sont exclues du projet de loi. Le nouvel amendement devrait être voté cet automne. 

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Les sénateurs défendent les lois « NO FAKES » et « TAKE IT DOWN » pour lutter contre les « Deepfakes », malgré les alertes du Premier Amendement

Le Congrès est en train de construire une machine de censure déguisée en protection de l’enfance et en droits des artistes.

5–8 minutes

Lors d’une audience de la commission judiciaire du Sénat tenue le 21 mai 2025, intitulée « Le bon, la brute et le truand : les deepfakes générés par l’IA en 2025 », les législateurs et les intervenants invités se sont ralliés à deux mesures très controversées : la loi TAKE IT DOWN récemment promulguée et la loi NO FAKES en attente .

Ces deux propositions, sous le signe de la lutte contre l’utilisation abusive de l’IA, élargiraient considérablement le pouvoir des gouvernements et des entreprises de censurer unilatéralement le contenu numérique, ce qui poserait de graves risques pour la liberté d’expression.

La sénatrice Marsha Blackburn (R-TN) a salué les deux projets de loi, mettant en garde contre une « augmentation profondément inquiétante » du contenu explicite généré par l’IA.

« Nous devons agir », a-t-elle déclaré. « La loi No Fakes Act et la loi Take It Down Act, que le président Trump vient de promulguer cette semaine, contribuent grandement à mieux protéger nos enfants contre ces deepfakes. » Évoquant l’utilisation abusive d’images et de voix de célébrités dans des escroqueries, elle a déclaré : « Le Congrès doit agir », ajoutant qu’elle et ses collègues entendent « travailler sur la loi No Fakes Act et la soumettre au président Trump cette année. »

La sénatrice Amy Klobuchar (Démocrate-Minnesota) a également salué la nouvelle loi, la qualifiant de « premier pas », faisant référence à la loi TAKE IT DOWN qu’elle a coparrainée avec le sénateur Cruz. « Elle a eu des conséquences néfastes considérables, une vingtaine de suicides de jeunes enfants par an », a-t-elle déclaré, faisant référence à l’impact des images explicites non consensuelles. Klobuchar a souligné : « Nous avons également besoin de règles pour garantir que les technologies d’IA donnent du pouvoir aux artistes et aux créateurs, et non les affaiblissent. » Elle a rappelé que l’artiste nominé aux Grammy Awards, Cory Wong, l’avait avertie que « les répliques numériques non autorisées menacent les moyens de subsistance des artistes et compromettent leur capacité à créer de l’art. »

Christen Price, conseillère juridique principale au Centre national sur l’exploitation sexuelle, a affirmé que « la technologie deepfake permet à n’importe quel homme de transformer n’importe quelle femme en pornographie ».

Citant Andrea Dworkin, elle a déclaré : « On vit dans un cauchemar d’abus sexuels, réels ou potentiels, et on a la grande joie de savoir que son cauchemar est la liberté de quelqu’un d’autre, le plaisir de quelqu’un d’autre. » Price a soutenu la loi NO FAKES, ainsi que d’autres projets de loi, affirmant : « Ces projets de loi contribuent à protéger les individus des effets néfastes des abus sexuels basés sur des images et augmentent la pression sur les entreprises technologiques pour qu’elles gèrent les sites Web de manière plus responsable. »

Mitch Glazier, PDG de la Recording Industry Association of America, a qualifié la loi TAKE IT DOWN de « modèle incroyable », tout en insistant sur le fait qu’elle « a ses limites ». Il a mis en garde contre « une fenêtre de manœuvre très étroite et inhabituelle pour permettre au Congrès d’anticiper la situation avant que celle-ci ne devienne irréparable ». Plaidant pour une adoption rapide de la loi NO FAKES, Glazier a déclaré que les plateformes doivent agir avant que le contenu ne « devienne viral très, très rapidement », arguant que ces lois permettront le retrait de contenu « dès que techniquement et pratiquement possible ».

Justin Brookman, de Consumer Reports, a souligné l’utilisation abusive des outils d’IA vocale et vidéo dans les escroqueries et la désinformation. Il a expliqué que « des outils de clonage réalistes sont facilement accessibles au public, très bon marché et faciles à utiliser ».



Après avoir testé six plateformes de clonage vocal, il a constaté que « quatre des six entreprises étudiées n’avaient recours à aucun mécanisme technique, ni à aucun mécanisme technique raisonnable, pour garantir raisonnablement le consentement de la personne dont la voix était clonée. » Brookman a soutenu que « les développeurs de ces outils doivent être soumis à des obligations renforcées pour tenter de prévenir les utilisations nuisibles », ajoutant : « Les plateformes doivent elles aussi redoubler d’efforts pour éliminer proactivement les contenus préjudiciables de leurs plateformes. »

Le témoignage le plus détaillé sur les mécanismes d’application est venu de Susanna Carlos, responsable de la politique musicale chez YouTube. Elle a mis en avant le système Content ID de YouTube, expliquant qu’il aide les titulaires de droits d’auteur en « créant des empreintes numériques pour les œuvres concernées et en analysant la plateforme ». Elle a salué la loi NO FAKES, la qualifiant d’« approche intelligente et réfléchie » et a déclaré : « Nous sommes particulièrement reconnaissants à la présidente Blackburn, au sénateur Coons, à la députée Klobuchar et à tous les auteurs du projet de loi. »

Carlos a confirmé que YouTube développe un nouveau système baptisé « Likeness ID » qui analysera le visage et la voix des utilisateurs et les comparera sur toute la plateforme. Selon elle, ce système « permet aux individus de nous avertir lorsque des copies numériques de leurs contenus sont en ligne » et « est intelligemment repris dans la loi No Fakes Act ». Lors d’un échange avec le sénateur Blackburn, Carlos a reconnu que les plateformes devraient réagir aux avis de retrait « dans les meilleurs délais », mais a refusé de préciser un délai précis.

Le sénateur Chris Coons a demandé à Carlos pourquoi YouTube soutenait le projet de loi. Elle a répondu : « YouTube évolue donc dans un univers tout à fait particulier… Et c’est un domaine dans lequel cette idée de répliques numériques peut causer des dommages concrets. »

Malgré les éloges enthousiastes des participants, la loi NO FAKES pourrait facilement étouffer l’expression légale. Le projet de loi autorise les poursuites judiciaires pour toute « copie numérique non autorisée » et incite fortement les plateformes à privilégier le retrait, sans nécessiter de procédure de contre-avis. Bien que le projet de loi prétende exempter la parodie, la satire et les documentaires, l’Electronic Frontier Foundation a averti que « ces exemptions ont peu de chances de fonctionner dans la réalité ».

En encourageant le retrait rapide et opaque de contenus, à l’instar du système DMCA que le projet de loi cherche à imiter, la loi NO FAKES risque de transformer les plateformes en gardiennes de l’expression légale. Bien que présentée comme étant étroitement adaptée aux images non consensuelles, la loi TAKE IT DOWN contient un langage vague et impose des délais de retrait rapides qui pourraient perturber des discours légitimes.

Alors que Washington continue de présenter l’IA comme une menace exigeant une intervention agressive, les conséquences pour la liberté d’expression deviennent de plus en plus graves. Ce qui relevait autrefois de la modération manuelle et du jugement individuel est désormais confié à des systèmes automatisés soutenus par des lois floues, des pressions politiques et le lobbying des entreprises.

L’élan législatif derrière les lois NO FAKES et TAKE IT DOWN soulève des préoccupations pressantes quant au Premier Amendement. Bien que présentés comme des outils de lutte contre l’usurpation d’identité numérique et les abus liés à l’image, ces projets de loi introduisent des mécanismes étendus qui risquent d’étouffer un large éventail d’expressions protégées, notamment la satire, la parodie, le documentaire et le commentaire politique. Les définitions vagues entourant les « copies numériques non autorisées » créent un effet dissuasif, car les artistes, les journalistes et les utilisateurs ordinaires peuvent s’autocensurer par crainte que leurs contenus ne soient interceptés par des systèmes de retrait rapide.

L’absence d’un processus de contre-avis solide, associée à la menace de lourdes amendes pour les plateformes, encourage la suppression excessive plutôt qu’une modération prudente, faisant de l’expression légale le dommage collatéral d’un excès de pouvoir législatif.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



Le Danemark introduit la première interdiction mondiale des deepfakes, suscitant des inquiétudes quant à la liberté d’expression

En criminalisant les deepfakes non autorisés, le Danemark flirte avec un avenir où la protection de l’identité et le contrôle de la parole sont contraints de se placer dans le même cadre inconfortable.

2–4 minutes

Le Danemark est sur le point d’adopter une loi radicale interdisant la diffusion de deepfakes non consensuels, une mesure qui suscite de vives inquiétudes quant à l’extension du contrôle gouvernemental sur l’expression en ligne. Si l’objectif affiché est de protéger les individus contre les usurpations d’identité malveillantes par le biais de médias générés par l’IA, cette approche soulève des inquiétudes quant à la censure et aux limites de la liberté d’expression.

Dévoilée en avril 2025, la législation criminaliserait l’utilisation de médias synthétiques imitant la voix ou l’apparence d’une personne sans son autorisation explicite. En vertu du cadre proposé, les personnes découvrant une utilisation non autorisée de leur image pourraient exiger le retrait du contenu, obligeant les plateformes à le retirer dès qu’elles en seront informées.

Bien que des exceptions aient été prévues pour la satire et la parodie, celles-ci sont étroitement définies et nécessitent un étiquetage visible pour être autorisées légalement. De tels qualificatifs risquent de restreindre la liberté créative et d’imposer un filtre réglementaire sur la manière dont l’humour ou le commentaire sont exprimés, en particulier lorsqu’ils sont utilisés avec des outils d’IA.

Le ministre du Gouvernement numérique, Jakob Engel-Schmidt, a insisté sur l’aspect répressif, déclarant : « Si une personne découvre que quelqu’un a réalisé une vidéo deepfake de lui sans autorisation, la loi fera en sorte que les géants de la technologie soient obligés de la retirer à nouveau. » Sa remarque souligne un état d’esprit législatif moins axé sur la liberté d’expression et davantage sur la conformité contraignante des plateformes.

Cette initiative législative intervient dans un contexte de recrudescence des tromperies liées à l’IA, notamment l’utilisation d’enregistrements vocaux frauduleux dans des escroqueries et de matériel pornographique synthétique impliquant des personnalités publiques. Le gouvernement danois y voit une justification à une intervention judiciaire préventive. Mais le risque réside dans la manière dont ce précédent pourrait être étendu ou détourné. Une fois qu’un système est en place pour déterminer ce qui est « autorisé », la frontière entre protection et répression peut rapidement s’estomper.

Si la loi européenne sur l’IA impose déjà l’étiquetage des contenus générés par machine, elle n’interdit pas l’utilisation de l’image d’une personne. La loi danoise irait bien plus loin, affirmant que la ressemblance biométrique constitue une propriété privée ; une notion qui, si elle était largement adoptée, pourrait freiner la réinterprétation artistique, les reconstitutions journalistiques et le discours politique anonyme.

Le projet de loi s’appuie sur une réglementation danoise antérieure de 2024 limitant les deepfakes dans les publicités politiques. Cette restriction plus stricte s’est désormais transformée en un mécanisme de contrôle de l’identité numérique de grande envergure, s’appliquant au grand public et non plus seulement aux personnes au pouvoir. Mais cette extension s’accompagne de l’introduction d’un dispositif qui, craignent les critiques, pourrait à terme servir des objectifs plus répressifs.

L’application pratique de cette loi constitue un autre problème non résolu. Déterminer si un deepfake a été réalisé avec ou sans consentement, notamment lorsque le contenu est publié hors du territoire danois, pose de graves complications logistiques et juridiques. Mais la question fondamentale la plus urgente est peut-être de savoir si une telle loi impose un compromis inacceptable : sacrifier la liberté d’expression au nom de la sécurité numérique.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil



YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil