L’UE s’attaque à la « vraie » menace : l’IA masculine

Oubliez l’inflation ou le chaos aux frontières : Bruxelles s’attaque aux chatbots sexistes.

2–3 minutes

L’Union européenne a déclaré la guerre aux algorithmes « masculinistes », appelant à un contrôle plus strict des systèmes d’IA qu’elle accuse de biaiser à l’encontre des femmes.

Jeudi 19 juin, les ministres de l’Emploi et des Affaires sociales de l’Union européenne ont approuvé une série de conclusions qui, entre autres, appellent à agir contre ce qu’ils qualifient de « biais de genre » dans l’intelligence artificielle (IA).

Bien que l’intelligence artificielle soit encore en développement, Bruxelles estime qu’il est urgent de garantir que les données alimentant ces systèmes soient « claires, représentatives et de haute qualité ». Cela impliquerait également d’instaurer un contrôle humain et d’appliquer strictement les règles anti-discrimination existantes. Le mandat de Bruxelles a déjà restreint les IA génératives comme ChatGPT ou Grok.

Le Conseil reconnaît le potentiel de l’IA pour réduire les préjugés humains. Il affirme néanmoins que l’IA peut reproduire, voire amplifier, les inégalités si elle n’est pas correctement dirigée. Il appelle donc à la « pleine participation des hommes et des garçons » à la lutte contre les inégalités de genre et à la poursuite des recherches sur les « contenus et réseaux misogynes et masculinistes en ligne ».

L’un des points les plus marquants du document est l’inquiétude suscitée par la « violence sexiste facilitée par la technologie ». Il affirme que les jeunes femmes, en particulier celles qui occupent des postes de pouvoir ou appartiennent à des « groupes traditionnellement discriminés », sont touchées de manière disproportionnée par le harcèlement et les attaques en ligne. Selon les ministres européens, la solution réside dans l’inclusion de mesures spécifiques contre ce type de violence dans les plans d’action nationaux.

Comme si cela ne suffisait pas, le Conseil appelle également à renforcer les structures gouvernementales dédiées à l’égalité des sexes, en leur accordant « un mandat fort et clair » pour mettre en œuvre une perspective de genre dans toutes les politiques publiques.

Le regain d’enthousiasme de l’UE pour la réglementation des algorithmes est frappant, surtout après des années d’inaction sur des questions plus concrètes à travers le continent. Apparemment, le prochain défi politique de l’Europe n’est pas l’inflation, l’immigration incontrôlée ou l’insécurité croissante, mais plutôt de veiller à ce que ChatGPT ou Google ne reproduisent pas les « stéréotypes masculins ».

Dans le même temps, l’ UE reconnaît son manque de compétitivité technologique tout en s’efforçant de réglementer et d’infliger des amendes aux autres – une tentative apparente d’éviter de perdre le contrôle du récit.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


Microsoft élargit son outil de rappel basé sur l’IA, qui enregistre et indexe l’activité des utilisateurs.

Une machine à mémoire intégrée déguisée en commodité, Recall transforme silencieusement chaque moment passé devant votre clavier en un historique consultable.

2–3 minutes

La nouvelle initiative de Microsoft pour déployer Recall , une fonctionnalité alimentée par l’IA dans Windows 11 qui enregistre automatiquement l’activité des utilisateurs toutes les quelques secondes, ravive de profondes inquiétudes parmi ceux qui se concentrent sur la confidentialité numérique et la sécurité personnelle.

Initialement suspendu suite à une vague de réactions négatives l’année dernière, Recall est discrètement revenu dans une version préliminaire de Windows 11 (Build 26100.3902), désormais disponible pour certains testeurs. L’outil prend des instantanés de l’écran de l’utilisateur à intervalles réguliers et crée une chronologie consultable de tout, de l’utilisation des applications aux sites web visités et aux documents consultés. Si Microsoft présente cet outil comme un outil pratique, les défenseurs de la vie privée y voient un mécanisme de surveillance déguisé.

L’entreprise affirme que l’outil est sûr. Il nécessite l’inscription à Windows Hello pour accéder aux captures d’écran enregistrées. Microsoft décrit cette fonctionnalité comme un moyen de « trouver et d’accéder rapidement à n’importe quelle application, site web, image ou document, simplement en décrivant son contenu ». Les utilisateurs, précise l’entreprise, peuvent mettre l’enregistrement en pause et choisir ce qui est sauvegardé.

Mais ces assurances sont dérisoires face à ceux qui mettent en garde contre les conséquences plus larges. Le fait que Recall soit une option n’empêche pas l’exposition des données de personnes qui ne l’ont jamais activée. Si une personne ayant activé Recall reçoit une photo, un message ou un document confidentiel, celui-ci sera capturé, analysé et indexé en toute discrétion par l’outil, indépendamment de l’intention de l’expéditeur ou des outils de confidentialité utilisés.

La capacité de cette fonctionnalité à stocker et cataloguer des données de manière aussi exhaustive soulève de nombreuses questions juridiques, sécuritaires et éthiques. Les avocats, les gouvernements et les opérateurs de logiciels espions bénéficieraient d’un accès sans précédent à la vie numérique d’un utilisateur ; non pas par force brute ou par hameçonnage, mais grâce à un outil intégré qui crée un timelapse de l’activité informatique.

Pour ceux qui s’inquiètent de l’incursion croissante de l’IA dans l’informatique quotidienne, Recall est devenu un cas d’école. Ses détracteurs l’ont présenté comme faisant partie d’une tendance plus large où les entreprises intègrent des fonctionnalités d’IA à leurs plateformes existantes non pas pour servir les utilisateurs, mais pour favoriser l’engagement, la collecte de données ou la fidélisation.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


L’IA prouve que les empreintes digitales ne sont pas uniques, bouleversant le système juridique

L’analyse des empreintes digitales est un outil fiable dans la résolution des crimes depuis plus d’un siècle. Les enquêteurs s’appuient sur les empreintes digitales pour identifier les suspects ou les relier à des scènes de crime spécifiques, convaincus que chaque empreinte offre un code distinctif.

6–9 minutes

Pourtant, une équipe de chercheurs a découvert que les empreintes de différents doigts d’une même personne peuvent parfois sembler plus semblables.

Cette découverte est venue d’un modèle d’intelligence artificielle qui a révélé des liens surprenants entre les empreintes.

Hod Lipson, de Columbia Engineering, se distingue dans cet effort visant à remettre en question les normes médico-légales largement acceptées, en collaboration avec Wenyao Xu de l’ Université de Buffalo .

L’IA s’attaque aux empreintes digitales

Pendant des décennies, on a tenu pour acquis que les empreintes digitales des différents doigts d’un même individu ne correspondaient pas. Cette croyance repose en grande partie sur l’hypothèse selon laquelle chaque doigt présente des crêtes, des boucles et des tourbillons totalement distincts.

Un critique anonyme a même déclaré : « Il est bien connu que chaque empreinte digitale est unique », lorsqu’il a été confronté au travail des chercheurs.

Malgré cette résistance, un étudiant de dernière année de Columbia Engineering, nommé Gabe Guo, a mené une étude qui contredit cette hypothèse de longue date.

En utilisant une base de données publique du gouvernement américain contenant environ 60 000 empreintes digitales, Guo a intégré des paires d’empreintes digitales dans un réseau contrasté profond. Certaines paires appartenaient à la même personne, tandis que d’autres provenaient de personnes différentes.



Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.

Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.

Les chercheurs font tanguer le bateau

Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.

Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .

Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.

« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.

Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.

Le système d’intelligence artificielle est devenu capable de déterminer si des empreintes apparemment différentes provenaient en réalité d’un seul individu, atteignant une précision de 77 % pour les paires simples.

Dans les cas où plusieurs échantillons ont été regroupés, la précision a augmenté de façon spectaculaire, offrant la possibilité de décupler les méthodes médico-légales existantes.

Les chercheurs font tanguer le bateau

Bien que ces résultats promettaient de nouvelles possibilités pour relier les scènes de crime, les chercheurs ont dû faire face à une bataille difficile lors de l’évaluation par les pairs.

Le projet a été rejeté par une revue médico-légale bien établie qui n’a pas accepté l’idée que différents doigts pourraient produire des empreintes ayant des caractéristiques communes .

Sans se laisser décourager, le groupe a cherché à élargir son lectorat. Le journal a été une nouvelle fois refusé, ce qui a incité Lipson à contester la décision.

« Si ces informations font pencher la balance, alors j’imagine que des affaires non résolues pourraient être relancées, et même que des innocents pourraient être acquittés », a noté Lipson, qui co-dirige le Makerspace Facility à Columbia.

Déterminée à ne pas reculer devant un défi, même si cela signifiait perturber plus de 100 ans de pratiques acceptées, l’équipe a continué à peaufiner son travail.

Finalement, leur persévérance a porté ses fruits puisque leur étude a finalement été reconnue et publiée dans la revue à comité de lecture Science Advances .

L’IA donne de nouveaux indices dans l’analyse des empreintes digitales

Les méthodes traditionnelles s’appuient sur des détails, qui font référence aux modèles de ramification et aux points d’extrémité des crêtes.

« L’IA n’utilisait pas les « minuties », qui sont les ramifications et les points d’extrémité des crêtes d’empreintes digitales – les modèles utilisés dans la comparaison traditionnelle des empreintes digitales », a expliqué Guo.

« Au lieu de cela, il utilisait autre chose, lié aux angles et aux courbures des tourbillons et des boucles au centre de l’empreinte digitale. »

Ses conclusions suggèrent que les experts ont peut-être négligé des indices visuels importants.

La collaboration comprenait Aniv Ray, diplômé de Columbia Engineering, et Judah Goldfeder, étudiant au doctorat, qui ont tous deux indiqué que le succès initial du projet pourrait se renforcer avec des ensembles de données plus volumineux.

« Imaginez à quel point cela fonctionnera bien une fois qu’il sera formé sur des millions, au lieu de milliers d’empreintes digitales », a fait remarquer Ray, laissant entendre que cette approche pourrait éventuellement affiner la façon dont les enquêteurs recherchent des indices sur plusieurs scènes de crime.

Biais potentiel et prochaines étapes

Les chercheurs sont attentifs aux éventuelles lacunes dans les données. Ils ont constaté que leur système affichait des performances similaires auprès de différents groupes démographiques, mais ont souligné la nécessité de disposer de collections d’empreintes digitales plus vastes et plus diversifiées.

Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.

L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.

Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.

« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.

« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »

IA, empreintes digitales et application de la loi

Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.

Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.

Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.

Ils espèrent qu’une validation approfondie permettra de répondre à toute préoccupation concernant les biais avant que quiconque n’adopte cette technique dans des enquêtes réelles.

L’objectif à long terme est d’offrir aux forces de l’ordre un outil supplémentaire qui améliore l’efficacité lorsque les affaires semblent compliquées.

Bien que l’IA ne puisse pas conclure officiellement une affaire juridique, elle peut aider à réduire le champ des suspects ou à relier des scènes de crime distinctes sur la base de correspondances partielles.

« Beaucoup de gens pensent que l’IA ne peut pas vraiment faire de nouvelles découvertes – qu’elle ne fait que régurgiter des connaissances », a expliqué Lipson, soulignant un changement plus large dans la manière dont l’IA pourrait soutenir le travail d’enquête.

« Mais cette recherche est un exemple de la façon dont même une IA relativement simple , à partir d’un ensemble de données relativement simple que la communauté des chercheurs possède depuis des années, peut fournir des informations qui ont échappé aux experts pendant des décennies. »

IA, empreintes digitales et application de la loi

Cette étude démontre que l’intelligence artificielle peut repérer des tendances que les méthodes d’analyse traditionnelles pourraient manquer. Elle souligne également la valeur des ensembles de données ouvertes, jusqu’ici sous-exploités dans de nombreux domaines de recherche.

Ces résultats pourraient inciter les experts médico-légaux à repenser certaines procédures, notamment lorsque plusieurs empreintes digitales du même suspect apparaissent à différents endroits.

Lipson voit un avenir où des avancées inattendues peuvent provenir de perspectives nouvelles.

« Ce qui est encore plus passionnant, c’est qu’un étudiant de premier cycle, sans aucune expérience en criminalistique, puisse utiliser l’IA pour remettre en question avec succès une croyance largement répandue dans tout un domaine », a conclu Lipson.

« Nous sommes sur le point de vivre une explosion de découvertes scientifiques menées par des non-experts grâce à l’IA, et la communauté des experts, y compris le monde universitaire, doit s’y préparer. »

L’étude complète a été publiée dans la revue Science Advances .

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil


← Back

Votre message a été envoyé

Attention


Un enseignant accusé d’avoir créé de la pornographie infantile générée par l’IA à partir d’élèves

Un ancien enseignant d’un district scolaire du Mississippi fait face à des accusations criminelles après que la police a déclaré qu’il avait utilisé l’intelligence artificielle pour créer des vidéos explicites d’élèves.

2–3 minutes

Wilson Jones, enseignant au sein du district scolaire de Corinth, a été arrêté mercredi et accusé de production et de possession d’images pornographiques juvéniles truquées. Le district scolaire indique que l’homme de 30 ans n’est plus employé, rapporte WMC .

Le ministère de l’Éducation du Mississippi a déposé une plainte auprès du service de police de Corinth le 27 février, alléguant que Jones avait enfreint le Code de déontologie des enseignants du Mississippi. Une assignation à comparaître a été émise pour saisir son ordinateur portable et une clé USB.

La police a examiné le contenu et identifié huit étudiantes âgées de 14 à 16 ans comme victimes de séquences vidéo générées par l’IA les montrant se livrant à une conduite d’exploitation sexuelle.

La police affirme que les victimes n’ont jamais été filmées. Jones aurait généré les images des étudiants à partir d’images extraites de leurs comptes de réseaux sociaux et téléchargées sur le logiciel de génération.

Les parents des victimes ont été immédiatement prévenus après la découverte.

Selon des documents judiciaires fédéraux, en novembre, le directeur de l’école secondaire Corinth a été alerté d’une activité suspecte sur l’ordinateur de Jones qui a été détectée pendant les heures de cours par l’application Bark, qui est utilisée pour surveiller et contrôler l’activité en ligne sur tous les ordinateurs du district scolaire.

L’e-mail de Bark montrait une alerte « grave » qualifiée de « sexuelle » provenant de l’ordinateur de Jones.

Le directeur informatique de l’école a accédé à l’ordinateur de Jones et a visionné trois vidéos explicites signalées. Jones aurait téléchargé le contenu sur son Google Drive, ce qui a déclenché l’alerte Bark.

Les vidéos montreraient des étudiants s’embrassant et s’exhibant.

Le directeur et le directeur adjoint de l’école ont confronté Jones au sujet de cette découverte le lendemain. Selon l’affidavit, Jones a admis avoir créé les vidéos grâce à l’IA, mais a affirmé qu’elles n’étaient pas à caractère sexuel.

Le district scolaire de Corinthe a publié la déclaration suivante à propos de cette affaire :

Le système de filtrage Internet du district scolaire de Corinth a alerté l’administration du district d’une activité inappropriée sur l’ordinateur d’un enseignant. Le district a enquêté sur la plainte, a pris des mesures et a signalé l’affaire, comme prévu, au Bureau des fautes professionnelles des enseignants du Département de l’Éducation du Mississippi.

Étant donné que cette affaire concerne l’emploi d’un ancien employé du district scolaire et fait actuellement l’objet d’une enquête policière, le district ne peut faire aucun commentaire supplémentaire pour le moment. Il a coopéré et continuera de coopérer à toute demande d’assistance des forces de l’ordre.

Voir l’article original cliquez ci-dessous :

Voir l’article

Page d'accueil pour retourner sur le site
Aller à l’accueil

Laisser un commentaire

Les chatbots comme censeurs : comment l’UE envisage l’IA pour contrôler la parole

Les efforts visant à réglementer les chatbots IA s’intensifient alors que les décideurs politiques font pression pour une censure de contenu plus stricte.

2–3 minutes

L’association à but non lucratif EU DisinfoLab , basée à Bruxelles, étudie l’utilité et l’efficacité des chatbots LLM (Large Language Models) pour faire progresser la censure en ligne (« modération »), notamment en ce qui concerne la « désinformation ».

Bien que ne faisant pas officiellement partie de l’UE, le groupe est impliqué dans un certain nombre de « projets anti-désinformation » financés par le bloc et fait des recommandations politiques à ses institutions et à ses pays membres.

L’une de ces « recommandations en cours d’élaboration » semble désormais vouloir renforcer les capacités des chatbots en tant qu’outils de censure, tandis que la loi européenne sur la censure, le Digital Services Act (DSA), est mentionnée comme le cadre juridique qui permettrait cela.

Un rapport de DisinfoLab, « Conditions de (dés)service : comparaison des politiques de désinformation dans les chatbots d’IA génératrices de texte », positionne l’objectif de la recherche comme étant l’examen des « politiques de désinformation » utilisées dans 11 des principaux chatbots afin de déterminer si elles en font suffisamment pour éviter d’être « mal utilisées ou exploitées par des acteurs malveillants ».

L’une des conclusions est qu’à l’heure actuelle, les conditions de service s’appliquant aux chatbots sélectionnés par EU DisinfoLab ne prévoient pas explicitement d’appliquer la censure, et prédit que les moyens « actuellement inadéquats » utilisés par les chatbots pour « modérer la désinformation » ne feront qu’empirer – si, bien entendu, ils ne sont pas réglementés.

C’est là qu’intervient la DSA, dont le rapport affirme que les dispositions générales de la loi obligent les plateformes en ligne à supprimer « rapidement les contenus illégaux dès qu’elles ont connaissance de leur illégalité » – une responsabilité que les plateformes contourneraient désormais en évitant l’inclusion de la « vérification des faits ».

L’Europe n’est pas le seul pays à envisager la possibilité d’utiliser les chatbots comme fantassins dans la « guerre contre la désinformation ». L’Assemblée de l’État de New York cherche désormais à « responsabiliser les chatbots ».

Une proposition (projet de loi 025-A222) a été présentée qui réglementerait l’espace en rendant les entreprises derrière les chatbots responsables de ne pas fournir « d’informations exactes ».

Le projet de loi, présenté par un membre démocrate de l’Assemblée de l’État, vise également à ajouter des informations définies comme « matériellement trompeuses, incorrectes, contradictoires ou nuisibles » à la liste des éléments pour lesquels les entreprises ne seraient pas autorisées à décliner toute responsabilité.

Et ces catégories, déjà larges, sont rendues encore plus ouvertes à l’interprétation puisque le texte proposé stipule que les opérateurs de chatbots seraient considérés comme responsables si ces types d’informations entraînent une perte financière – mais aussi « d’autres préjudices démontrables ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Une plateforme de « désinformation » pilotée par l’IA permet au gouvernement britannique de suivre les publications sur les réseaux sociaux, y compris les opinions politiques.

Le gouvernement britannique poursuit son initiative de surveillance de masse basée sur l’intelligence artificielle, élargissant la portée de son dispositif controversé de surveillance de la désinformation.

3–5 minutes

La National Security Online Information Team (NSOIT), anciennement Counter Disinformation Unit (CDU) , est à l’origine du développement de la Counter Disinformation Data Platform (CDDP), un système conçu pour analyser les médias sociaux à la recherche de contenus qu’elle juge « préoccupants ». Ce projet, tout comme une grande partie des activités actuelles du gouvernement britannique, suscite de sérieuses inquiétudes quant à l’empiétement de la censure et de la surveillance de l’État sur la liberté d’expression.

Le NSOIT s’est fait connaître pour son rôle dans la surveillance et le signalement des critiques des politiques gouvernementales en matière de pandémie comme sources de « désinformation ». Aujourd’hui, avec le CDDP, cet effort est renforcé par l’IA, qui confère au gouvernement une capacité sans précédent à passer au crible de vastes quantités de discours publics et à prendre des « mesures » contre les contenus signalés.

Un avis de confidentialité publié par le gouvernement en 2023 reconnaît que le CDDP collecterait et analyserait les publications sur les réseaux sociaux, y compris les noms d’utilisateur, les opinions politiques et d’autres données personnelles. Il stipule : « Pour nous aider à analyser les menaces de désinformation en ligne, nous collectons du contenu à partir de plateformes de réseaux sociaux accessibles au public… le contenu que nous examinons peut inclure les noms et les opinions des individus. » Ce niveau de contrôle, même dans des « catégories spéciales » de données personnelles, met en évidence le risque d’abus.

Selon The Telegraph , le ministère de la Science, de l’Innovation et de la Technologie (DSIT) a récemment alloué 2,3 millions de livres sterling à Faculty AI pour construire le logiciel de surveillance, qui est censé détecter les « interférences étrangères » et analyser les récits en ligne.

Cependant, des inquiétudes ont été soulevées quant à l’éventuelle extension du champ d’action de l’outil d’IA au-delà des questions de sécurité nationale. Des documents obtenus grâce à des demandes d’accès à l’information (FOI) suggèrent que le gouvernement a laissé la porte ouverte à l’utilisation de la plateforme pour un large éventail de questions allant au-delà de son objectif déclaré. Un résumé du projet stipule explicitement : « Bien que le CDDP soit actuellement axé sur la sécurité nationale, l’outil a la capacité d’être réorienté pour se concentrer sur n’importe quel domaine prioritaire. »

Cette mesure signifie la mise en place d’une infrastructure de surveillance capable de cibler la dissidence sous couvert de lutte contre la « désinformation ».

Au cours des trois dernières années, le gouvernement a dépensé plus de 5,3 millions de livres sterling pour des initiatives de surveillance de la désinformation, notamment pour contrer la soi-disant « rhétorique anti-vaccination » et les publications remettant en question les politiques liées au COVID-19.

Parmi les contenus signalés figuraient des discussions sur les traitements alternatifs contre le cancer, le port obligatoire du masque et le réseau 5G. En outre, des documents gouvernementaux ont révélé des inquiétudes concernant les publications sur les réseaux sociaux soutenant l’utilisation de l’hydroxychloroquine comme traitement contre la COVID-19, malgré une étude de l’Université d’Oxford confirmant ultérieurement son efficacité pour réduire les symptômes.

Le développement du CDDP a suscité des critiques de la part des défenseurs de la liberté d’expression, qui estiment qu’il s’agit d’une escalade de la censure soutenue par l’État. Le vice-président américain JD Vance a récemment condamné les gouvernements européens lors de la Conférence de Munich sur la sécurité, avertissant que les libertés fondamentales, y compris la liberté d’expression, étaient menacées. Lord Young, de la Free Speech Union, a également exprimé son inquiétude, qualifiant l’expansion de cet appareil de surveillance de « politiquement imprudente ».

Il a souligné que le système d’IA examinerait le contenu des plateformes détenues par des Américains, ce qui risquerait de provoquer une réaction négative de la part des États-Unis, en particulier compte tenu de la position en faveur de la liberté d’expression de personnalités comme Elon Musk et l’administration Trump-Vance.

Le gouvernement insiste sur le fait que l’outil de surveillance basé sur l’IA ne surveille pas les individus mais suit plutôt les « thèmes et tendances » généraux.

Cependant, des demandes d’accès à l’information antérieures ont révélé que des rapports avaient été rédigés sur des commentateurs individuels, y compris des universitaires et des journalistes traditionnels qui remettaient simplement en question les politiques officielles.

Des personnalités telles que le Dr Alex de Figueiredo et le professeur Carl Heneghan ont été identifiées dans les dossiers gouvernementaux pour avoir exprimé des inquiétudes concernant les politiques de vaccination et les réponses à la pandémie.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Amazon va investir environ 100 milliards de dollars dans l’IA en 2025

Amazon a annoncé son intention de réaliser un investissement massif dans l’intelligence artificielle cette année.

2–3 minutes

Le géant du commerce électronique a l’intention d’augmenter ses dépenses d’investissement à 100 milliards de dollars, ce qui représenterait une augmentation considérable par rapport aux 83 milliards de dollars déjà élevés enregistrés par Amazon en 2024.

« Nous avons dépensé 26,3 milliards de dollars en dépenses d’investissement au quatrième trimestre, et je pense que cela est raisonnablement représentatif de ce que vous attendez d’un taux d’investissement annualisé en 2025 », a déclaré le PDG d’Amazon, Andy Jassy, ​​lors d’une conférence téléphonique sur les résultats du quatrième trimestre avec les investisseurs, selon CNBC.

« La grande majorité de ces dépenses d’investissement est consacrée à l’IA pour AWS », a-t-il déclaré, faisant référence à la branche de cloud computing à la demande de l’entreprise.

L’année dernière, le Dallas Express a rapporté qu’Amazon prévoyait de dépenser près de 150 milliards de dollars dans des centres de données au cours des 15 prochaines années. Cet investissement vise à anticiper la demande continue de croissance dans le domaine de l’IA, qui nécessite beaucoup de ressources.

Amazon va rejoindre d’autres grands noms de la technologie en investissant des milliards de dollars dans l’intelligence artificielle.

Alphabet, la maison mère de Google, a annoncé qu’elle prévoyait de dépenser environ 75 milliards de dollars cette année, tandis que Microsoft a déclaré qu’elle prévoyait de dépenser 80 milliards de dollars au cours de l’exercice 2025 pour renflouer les centres de données afin de soutenir l’IA. Meta a également annoncé qu’elle dépenserait plus de 65 milliards de dollars cette année.

Une partie de ces dépenses finira probablement dans le Lone Star State.

Le nord du Texas, en particulier, a été au cœur de la croissance des centres de données, avec une explosion du nombre de constructions. Un rapport publié en novembre dernier a classé la région de Dallas-Fort Worth au deuxième rang du pays en termes d’utilisation de centres de données, avec 776 mégawatts de capacité d’énergie informatique critique louée.

En 2024, Google a annoncé son intention d’investir plus d’un milliard de dollars au Texas d’ici la fin de 2024, dont près de 600 millions de dollars pour soutenir son centre de données de Red Oak.

Microsoft Corp. et QTS Realty Trust LLC, une société basée au Kansas, ont annoncé en décembre qu’ils allaient construire plus d’un million de pieds carrés de nouveaux centres de données dans le nord du Texas. Microsoft devrait construire quatre des sept installations situées à Irving.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

La ministre française du Travail appelle à une intégration rapide de l’IA dans les entreprises

La ministre française du Travail, Astrid Panosyan-Bouvet, a exhorté les entreprises et les salariés à adopter sans délai l’intelligence artificielle, alors que le président Emmanuel Macron organisait un important sommet sur l’IA dans le pays.

3–4 minutes
La ministre française du Travail, Astrid Panosyan-Bouvet, exhorte les entreprises et les salariés à adopter l’IA sans délai, alors que le président Emmanuel Macron donne le coup d’envoi d’un important sommet sur l’IA dans le pays.

« Nous devons aborder la révolution de l’IA avec humilité et conviction, sans paniquer. Elle ne concerne pas seulement les geeks, les grandes entreprises ou les start-ups : elle impacte toutes les entreprises et toutes les professions, qu’elles soient cognitives, manuelles ou relationnelles », a-t-elle déclaré dans un communiqué du 9 février.

Panosyan-Bouvet a présenté une vision du déploiement de l’IA en France, suggérant qu’elle pourrait être déployée progressivement en déléguant d’abord des tâches, puis en repensant les structures d’emploi pour intégrer l’IA et éventuellement en augmentant son utilisation.

Cependant, le plus grand syndicat français, la CGT, a exprimé ses inquiétudes quant à l’impact de l’IA sur les travailleurs.

« Si l’IA peut être un outil utile pour anticiper les changements dans les systèmes de production, elle ne doit pas servir d’excuse aux suppressions d’emplois et aux externalisations », avertissait le syndicat le 6 février.

La CGT a souligné que les travailleurs doivent être protégés des risques professionnels liés à l’IA et se voir accorder de nouveaux droits pour préserver leur bien-être physique et mental.

Panosyan-Bouvet a poursuivi : « En termes de compétitivité, d’emploi et de travail, le véritable risque avec l’IA est de rater l’opportunité », a-t-elle déclaré, faisant référence à ce qui a été considéré comme le pas manqué de la France dans la « révolution numérique » des années 2000.

Panosyan-Bouvet a souligné l’importance cruciale de l’adoption de l’IA pour la compétitivité future de la France. Elle a souligné que le pays n’avait pas su tirer pleinement parti des deux dernières décennies de révolution numérique.

« Les gains de productivité ont été deux fois moins importants en France qu’aux États-Unis », a-t-elle noté.

« Actuellement, seulement 25 % des entreprises françaises, soit 10 % des PME, utilisent l’IA. Si nous n’agissons pas, la France pourrait connaître les plus faibles gains de productivité parmi les pays du G7, prévient l’OCDE [Organisation de coopération et de développement économiques] », a-t-elle ajouté.

Le ministre a souligné la législation ambitieuse de l’Union européenne visant à protéger les citoyens, les travailleurs et les consommateurs, mais a souligné qu’il était désormais temps pour les entreprises d’adopter pleinement la technologie.

« Nous devons accélérer l’adoption de l’IA dans tous les secteurs », a-t-elle exhorté.

Dans le même temps, la CGT a insisté sur le fait que les garanties pour les travailleurs devaient inclure le droit à la formation à l’IA, la protection contre la surveillance algorithmique, la participation au développement et à l’adaptation de l’IA et la capacité d’annuler les décisions de l’IA lorsque cela est nécessaire.

En outre, les travailleurs devraient avoir accès aux informations sur la manière dont leurs données sont utilisées, aux droits de propriété intellectuelle sur leurs contributions, au droit de se retirer des situations de travail dangereuses et à la capacité de refuser les directives basées sur l’IA tout en proposant des alternatives, a-t-il déclaré.

Malgré le scepticisme des syndicats, la révolution de l’IA semble déjà en marche en France.

Démontrant son engagement pour l’avenir, Macron a annoncé le 10 février que la France allait désormais former 100 000 jeunes étudiants en IA.

« En France, nous formons actuellement 40 000 jeunes par an aux métiers de l’IA. Nous allons porter ce chiffre à 100 000 », a-t-il annoncé sur les réseaux sociaux.

Les déclarations de Macron et Panosyan-Bouvet font suite au lancement réussi de la plateforme d’IA française Mistral, conçue pour positionner le pays aux côtés d’acteurs mondiaux tels que ChatGPT, basé aux États-Unis, et DeepSeek, en Chine.

La France fait pression pour la démocratisation de l’IA dans le pays.

En octobre 2024, le maire d’Arcachon, Yves Foulon, a offert à ses 12 000 administrés un abonnement ChatGPT et a déclaré que l’idée « naît d’une volonté politique de lutter contre la fracture numérique ».

Voir l’article original cliquez ci-dessous :

Voir l'article
Voir l’article

Aller à l’accueil

Laisser un commentaire

Le sommet de Paris sur l’IA attire des dirigeants et des PDG du monde entier désireux d’une réglementation plus légère

  • La France accueille le sommet des 10 et 11 février
  • Les entreprises technologiques affirment que la réglementation peut freiner l’innovation
  • Trump a déchiré sa récente politique en matière d’IA
  • Appels à plus de clémence en Europe
4–6 minutes

PARIS, 10 février (Reuters) – Les dirigeants mondiaux et les dirigeants du secteur technologique se sont réunis lundi à Paris pour annoncer de nouveaux investissements dans l’intelligence artificielle et discuter de la manière d’adopter l’IA en toute sécurité à une époque de résistance croissante aux lourdeurs administratives qui, selon les entreprises, freinent l’innovation.

L’empressement à maîtriser l’IA s’est estompé depuis les sommets précédents en Grande-Bretagne et en Corée du Sud qui ont attiré l’attention des puissances mondiales sur les risques de cette technologie après le lancement viral de ChatGPT en 2022.

Alors que le président américain 

Donald Trump détruit les garde-fous de son prédécesseur en matière d’IA pour promouvoir la compétitivité des États-Unis, la pression s’accentue sur l’Union européenne pour qu’elle adopte une approche plus légère de l’IA afin d’aider les entreprises européennes à rester dans la course technologique.« Si nous voulons de la croissance, des emplois et du progrès, nous devons permettre aux innovateurs d’innover, aux constructeurs de construire et aux développeurs de développer », a déclaré le PDG d’OpenAI, Sam Altman, dans un éditorial du journal Le Monde avant le sommet.

Certains dirigeants européens, dont l’hôte du sommet, le président français Emmanuel Macron, espèrent également qu’une certaine flexibilité sera appliquée à la nouvelle loi sur l’IA du bloc pour aider les startups locales.

« Il y a le risque que certains décident de ne pas avoir de règles et c’est dangereux. Mais il y a aussi le risque inverse, si l’Europe se donne trop de règles », a déclaré Macron à la presse régionale.

« Nous ne devons pas avoir peur de l’innovation », a-t-il déclaré.

Les premières mesures prises par Trump en matière d’IA ont souligné à quel point les stratégies de régulation de l’IA aux États-Unis, en Chine et dans l’UE divergent.L’année dernière, les législateurs européens ont approuvé la loi sur l’intelligence artificielle, le premier ensemble complet de règles au monde régissant cette technologie. Les géants de la technologie et certaines capitales font pression pour qu’elle soit appliquée avec souplesse.

Pendant ce temps, l’entreprise chinoise DeepSeek a défié le mois dernier le leadership des États-Unis en matière d’IA en distribuant gratuitement un système de raisonnement de type humain, galvanisant ainsi les rivaux géopolitiques et industriels pour qu’ils accélèrent encore la course.

PLUS D’INVESTISSEMENT

L’un des résultats du sommet a été le lancement de Current AI, un partenariat entre des pays comme la France et l’Allemagne et des acteurs du secteur, dont Google et Salesforce.

Doté d’un investissement initial de 400 millions de dollars, le partenariat sera le fer de lance de projets d’intérêt public tels que la mise à disposition de données de haute qualité pour l’IA et l’investissement dans des outils open source. Il vise un capital pouvant atteindre 2,5 milliards de dollars sur cinq ans.

Martin Tisné, actuel fondateur de l’IA, a déclaré à Reuters qu’il était nécessaire de se concentrer sur l’intérêt général pour éviter que l’IA ne présente des inconvénients comme les réseaux sociaux. « Nous devons avoir tiré les leçons de cette expérience », a-t-il déclaré.

Par ailleurs, la France annoncera des investissements du secteur privé totalisant quelque 109 milliards d’euros (113 milliards de dollars) lors du sommet, a déclaré Macron dimanche.

« L’ampleur de cet investissement de 100 milliards d’euros nous a rassurés, d’une certaine manière, sur le fait qu’il y aura des projets suffisamment ambitieux en France », a déclaré Clem Delangue, PDG de Hugging Face, une société américaine avec des cofondateurs français qui est un pôle d’IA open source en ligne.

Delangue a déclaré que son entreprise doublerait ses investissements en France pour embaucher plus de personnel et se concentrer sur la technologie, notamment la robotique, mais il a refusé de dire combien cela représenterait.

Les délégations discutent de déclarations non contraignantes sur la gestion de l’IA et sur la gestion des besoins énergétiques massifs de l’IA à mesure que la planète se réchauffe.

RISQUES

À Paris, tout le monde n’était pas d’accord avec une approche plus légère de la réglementation de l’IA.En termes de réglementation, « c’est comme le jour et la nuit entre les États-Unis et l’UE à l’heure actuelle », a déclaré Brian Chen, directeur politique chez Data & Society, une organisation à but non lucratif basée aux États-Unis qui étudie les implications sociales de l’IA.« Ce qui m’inquiète, c’est qu’il y aura des pressions de la part des États-Unis et d’ailleurs pour affaiblir la loi européenne sur l’IA et affaiblir les protections existantes », a-t-il déclaré.Les dirigeants syndicaux ont exprimé leurs inquiétudes quant à l’impact de l’IA sur les travailleurs, notamment sur ce qui arrive aux travailleurs dont les emplois sont repris par l’IA et poussés vers de nouveaux emplois.« Il y a un risque que ces emplois soient beaucoup moins bien payés et parfois avec beaucoup moins de protection », a déclaré Gilbert F. Houngbo, directeur général de l’Organisation internationale du travail.

Des dirigeants politiques de premier plan, dont le vice-président américain JD Vance et le vice-Premier ministre chinois Zhang Guoqing, participeront au sommet. Macron doit rencontrer Zhang lundi et Vance mardi, a indiqué la présidence française.

Des dirigeants politiques de premier plan, dont le vice-président américain JD Vance et le vice-Premier ministre chinois Zhang Guoqing, participeront au sommet. Macron doit rencontrer Zhang lundi et Vance mardi, a indiqué la présidence française.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les images d’abus sexuels sur mineurs générées par l’IA sont visées par de nouvelles lois

Quatre nouvelles lois viseront à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’intelligence artificielle (IA), a annoncé le gouvernement.

4–6 minutes

Le ministère de l’Intérieur a déclaré que le Royaume-Uni serait le premier pays au monde à rendre illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer du matériel d’abus sexuel sur mineur (CSAM), avec une peine pouvant aller jusqu’à cinq ans de prison.

La possession de manuels pédophiles basés sur l’IA – qui enseignent aux gens comment utiliser l’IA pour commettre des abus sexuels – sera également rendue illégale, et les contrevenants seront passibles d’une peine allant jusqu’à trois ans de prison.

« Ce que nous constatons, c’est que l’IA dope désormais la maltraitance des enfants en ligne », a déclaré la ministre de l’Intérieur Yvette Cooper à l’émission Sunday with Laura Kuenssberg de la BBC.

Cooper a déclaré que l’intelligence artificielle « industrialisait l’ampleur » des abus sexuels contre les enfants et que les mesures gouvernementales « pourraient devoir aller plus loin ».

D’autres lois devraient être introduites, notamment celle qui rendrait punissable la gestion de sites Internet sur lesquels des pédophiles peuvent partager des contenus pédophiles ou donner des conseils sur la manière de manipuler les enfants. Cette infraction serait passible d’une peine pouvant aller jusqu’à 10 ans de prison.

La police des frontières sera également habilitée à ordonner aux personnes soupçonnées de présenter un risque sexuel pour les enfants de déverrouiller leurs appareils numériques pour inspection lorsqu’elles tentent d’entrer au Royaume-Uni, car les images d’abus sexuels sur mineurs sont souvent filmées à l’étranger. Selon la gravité des images, cette infraction sera passible d’une peine pouvant aller jusqu’à trois ans de prison.

Les images d’abus sexuels sur mineurs générées artificiellement sont des images générées en partie ou entièrement par ordinateur. Un logiciel peut « rendre inutilisables » les images réelles et remplacer le visage d’un enfant par celui d’un autre, créant ainsi une image réaliste.

Dans certains cas, les voix réelles d’enfants sont également utilisées, ce qui signifie que des survivants innocents d’abus sont à nouveau victimisés.

De fausses images sont également utilisées pour faire chanter les enfants et forcer les victimes à subir de nouveaux abus.

L’Agence nationale de lutte contre la criminalité (NCA) a déclaré que 800 arrestations étaient effectuées chaque mois en lien avec des menaces proférées contre des enfants en ligne. Elle a déclaré que 840 000 adultes constituent une menace pour les enfants à l’échelle nationale – en ligne et hors ligne – ce qui représente 1,6 % de la population adulte.

Cooper a déclaré : « Il y a des auteurs qui utilisent l’IA pour les aider à mieux préparer ou faire chanter des adolescents et des enfants, en déformant les images et en les utilisant pour inciter les jeunes à subir d’autres abus, ce qui provoque des choses encore plus horribles et devient également plus sadique. »

Elle a poursuivi : « C’est un domaine dans lequel la technologie ne s’arrête pas et notre réponse ne peut pas s’arrêter pour assurer la sécurité des enfants. »

Certains experts estiment cependant que le gouvernement aurait pu aller plus loin.

La professeure Clare McGlynn, experte en matière de réglementation juridique de la pornographie, de la violence sexuelle et des abus en ligne, a déclaré que les changements étaient « bienvenus » mais qu’il existait « des lacunes importantes ».

Le gouvernement devrait interdire les applications de « nudification » et s’attaquer à la « normalisation de l’activité sexuelle avec des filles d’apparence jeune sur les sites pornographiques grand public », a-t-elle déclaré, décrivant ces vidéos comme des « vidéos simulées d’abus sexuels sur des enfants ».

Ces vidéos « impliquent des acteurs adultes mais ils ont l’air très jeunes et sont montrées dans des chambres d’enfants, avec des jouets, des nattes, des appareils dentaires et d’autres signes de l’enfance », a-t-elle déclaré. « Ce matériel peut être trouvé avec les termes de recherche les plus évidents et légitime et normalise les abus sexuels sur mineurs. Contrairement à de nombreux autres pays, ce matériel reste légal au Royaume-Uni. »

L’Internet Watch Foundation (IWF) prévient que de plus en plus d’images d’abus sexuels sur des enfants sont produites par l’IA, et qu’elles deviennent de plus en plus courantes sur le Web ouvert.

Les dernières données de l’association montrent que les signalements de CSAM générés par l’IA ont augmenté de 380 %, avec 245 signalements confirmés en 2024 contre 51 en 2023. Chaque rapport peut contenir des milliers d’images.

L’année dernière, une étude a révélé que sur une période d’un mois, 3 512 images d’abus et d’exploitation sexuelle d’enfants ont été découvertes sur un site Web sombre. Par rapport au mois de l’année précédente, le nombre d’images de la catégorie la plus grave (catégorie A) a augmenté de 10 %.

Les experts affirment que les images CSAM générées par l’IA peuvent souvent paraître incroyablement réalistes, ce qui rend difficile de distinguer le vrai du faux.

Le directeur général par intérim de l’ IWF, Derek Ray-Hill, a déclaré : « La disponibilité de ce contenu d’IA alimente davantage la violence sexuelle contre les enfants.

« Cela encourage les agresseurs et rend les enfants plus vulnérables. Il reste certainement beaucoup à faire pour empêcher l’exploitation de la technologie de l’IA, mais nous saluons cette annonce et pensons que ces mesures constituent un point de départ essentiel. »

Lynn Perry, directrice générale de l’association caritative pour les enfants Barnardo’s, a salué l’action du gouvernement pour lutter contre le matériel d’abus d’enfants produit par l’IA, « qui normalise les abus envers les enfants, mettant davantage d’entre eux en danger, en ligne et hors ligne ».

« Il est essentiel que la législation suive le rythme des avancées technologiques pour prévenir ces crimes horribles », a-t-elle ajouté.

« Les entreprises technologiques doivent s’assurer que leurs plateformes sont sûres pour les enfants. Elles doivent prendre des mesures pour introduire des mesures de protection plus strictes, et l’Ofcom doit veiller à ce que la loi sur la sécurité en ligne soit mise en œuvre de manière efficace et rigoureuse. »

Les nouvelles mesures annoncées seront introduites dans le cadre du projet de loi sur la criminalité et la police lorsqu’il sera présenté au Parlement dans les prochaines semaines.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Une agence américaine autorise les artistes à protéger par copyright les œuvres réalisées avec l’aide de l’IA

Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, en fonction de la quantité d’intervention humaine et de créativité utilisée dans chaque pièce.

1–2 minutes

Le Bureau américain des droits d’auteur a décidé mercredi que les artistes peuvent protéger par le droit d’auteur certaines œuvres créées à l’aide de l’intelligence artificielle (IA), à condition que la créativité humaine soit également impliquée. 

Le rapport intervient alors que le bureau reçoit environ un demi-million de demandes de droits d’auteur par an et qu’il est de plus en plus souvent sollicité pour enregistrer des œuvres générées par l’IA, selon l’Associated Press .

Le bureau a déclaré qu’il déterminerait toujours si quelque chose est protégé par le droit d’auteur au cas par cas, mais qu’il prendrait les décisions en examinant la quantité d’apport humain et de créativité utilisée dans chaque pièce.

« Le droit d’auteur s’est depuis longtemps adapté aux nouvelles technologies et peut permettre de déterminer au cas par cas si les résultats générés par l’IA reflètent une contribution humaine suffisante pour justifier la protection du droit d’auteur », peut-on lire dans le rapport. « L’utilisation d’une machine comme outil ne nie pas la protection du droit d’auteur, mais l’œuvre qui en résulte n’est protégée par le droit d’auteur que si elle contient suffisamment d’éléments expressifs créés par l’homme. »

Le rapport indique que les images entièrement générées par l’IA ne peuvent pas être protégées par le droit d’auteur, et que les personnes ne peuvent pas non plus protéger par le droit d’auteur les images ou les œuvres d’art qu’elles ont demandées à partir de boîtes de discussion ou de générateurs d’images d’IA, comme les modifications ou la fusion d’images préexistantes.

« Étendre la protection aux contenus dont les éléments expressifs sont déterminés par une machine… porterait atteinte aux objectifs constitutionnels du droit d’auteur plutôt que de les promouvoir », a déclaré dans un communiqué Shira Perlmutter, registraire des droits d’auteur et directrice du bureau américain du droit d’auteur.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Davos : l’ONU présente l’IA comme « la prochaine menace existentielle »

par Tyler Durden

Rédigé par Eric Worrall via WattsUpWithThat.com,

La crise climatique mise à part, une nouvelle fausse urgence fait rage en ville.

2–3 minutes
Généré par IA

À Davos, Guterres dénonce le recul des engagements climatiques

22 janvier 2025

L’élite politique et économique mondiale présente mercredi à Davos a dû faire face à un discours sans compromis du secrétaire général de l’ONU, António Guterres, alors qu’il évoquait le manque de collaboration multilatérale dans un « monde de plus en plus sans gouvernail » menacé par deux dangers existentiels : le changement climatique et l’intelligence artificielle (IA) non réglementée.

« Dépendance aux énergies fossiles »

Comparant la dépendance aux combustibles fossiles au monstre de Frankenstein – « n’épargnant rien ni personne » – le Secrétaire général a noté l’ironie du fait que 13 des plus grands ports du monde pour les superpétroliers soient sur le point d’être submergés par la montée du niveau de la mer, une conséquence de la hausse des températures et de la fonte des glaces marines, causée en grande partie par la combustion du charbon, du pétrole brut et du gaz naturel.

….

Les promesses insoupçonnées de l’IA 

La prochaine menace existentielle, l’IA, est une arme à double tranchant, a poursuivi M. Guterres, car elle révolutionne déjà l’apprentissage, diagnostique les maladies, aide les agriculteurs à augmenter leurs rendements et améliore le ciblage de l’aide.

Mais si elle n’est pas maîtrisée, elle comporte de profonds risques : elle peut perturber les économies, saper la confiance dans les institutions et creuser les inégalités, a averti le Secrétaire général.

Lire la suite :  https://news.un.org/fr/story/2025/01/1159271

Bon, peut-être que par « la prochaine menace existentielle », l’ONU entendait simplement « une autre menace existentielle » . Mais c’est une tournure de phrase intéressante.

Bien sûr, il est évident depuis un certain temps que l’ONU aura besoin d’une nouvelle crise pour remplacer la crise climatique déjà fragile.

La fausse crise de l’intelligence artificielle a longtemps été un substitut évident à la fausse crise climatique, en raison de son attrait potentiellement bipartisan. Hollywood nous a préparé avec de nombreux films d’horreur sur l’intelligence artificielle qui dégénère.

Alors comment savons-nous que la crise de l’IA est fausse ?

Ce qui est révélateur, c’est que les personnes qui promeuvent les récits de crise de l’IA sont les mêmes qui ont promu toutes les autres fausses crises.


Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Un nouveau film bizarre utilise l’IA pour montrer Poutine portant des couches pour adultes souillées

Le réalisateur polonais Patryk Vega a révélé que des agents du Kremlin avaient manifesté leur intérêt pour le film

2–3 minutes

Un nouveau film qui va sans aucun doute provoquer la colère du Kremlin devrait montrer une version IA de Vladimir Poutine portant des couches pour adultes souillées, dans ce qui a été décrit comme un étrange biopic « deepfake ».

Le film, intitulé Poutine, doit sortir dans 35 pays et montre le président russe travaillant comme chauffeur de taxi, trompant sa femme et ordonnant le bombardement massif de la Tchétchénie.

Son réalisateur polonais, Patryk Vega, connu pour ses représentations graphiques du monde criminel, a utilisé la technologie de l’IA pour superposer le visage de Poutine sur un acteur.

Slawomir Sobala a étudié le langage corporel, les mouvements et les manières de Poutine afin de représenter efficacement le dictateur, l’acteur étant vu dans une prise recroquevillé partiellement nu sur une chaise en cuir.

Dans la bande-annonce de deux minutes, on peut également voir un jeune Poutine naviguant dans le Saint-Pétersbourg d’après-guerre, ordonnant des assassinats politiques et devant une rangée de femmes légèrement vêtues dans une forêt.

Après avoir appris les ficelles du pouvoir, il exhorte Boris Eltsine, son prédécesseur à la présidence, à « me transmettre le pouvoir. Je suis le seul à pouvoir vous sauver ».

Dans un geste susceptible de mettre en colère Poutine, qui est notoirement discret sur sa vie privée, une scène le montre en train d’humilier son ex-femme Lyudmila en embrassant sa nouvelle partenaire, la gymnaste olympique Alina Kabaeva, devant elle.

Avant la sortie du film, le réalisateur Vega a déclaré : « Tout le monde a peur de Vladimir Poutine [mais] dans mon film, c’est un homme terrifié qui a peur de la mort. »

M. Vaga a révélé que pendant le tournage, son travail a attiré l’attention des agents du Kremlin.

S’exprimant lors du Festival de Cannes, il a déclaré que les membres de l’équipe travaillant sur le film avaient commencé à recevoir des messages demandant l’accès au scénario contre de l’argent.

« Ils ont récupéré sur LinkedIn les numéros de téléphone portable de mon équipe et ont commencé à leur envoyer des messages, en leur disant des choses comme : « Je suis l’assistant d’un membre du Congrès du Dakota du Sud. J’ai entendu dire que vous aviez réalisé ce film. Mon patron voudrait payer 100 000 dollars pour une projection de ce film, ainsi que pour un scénario », a-t-il déclaré.

Parmi les nombreux pays qui présenteront le film, on trouve l’Ukraine, actuellement en proie à une guerre avec la Russie qui fêtera bientôt son troisième anniversaire.

Le tournage a duré 18 mois avec un budget de tournage limité, certaines scènes ayant été tournées en Russie à l’aide d’une caméra dissimulée.

Voir l’article original cliquez ci-dessous

Voir l’article

Aller à l’accueil

Laisser un commentaire

L’ACLU met en garde contre le tatouage numérique de l’IA qui menace la liberté d’expression et le journalisme

L’Union américaine pour les libertés civiles (ACLU), une organisation à but non lucratif de défense des droits civiques, a pris position contre les protocoles de tatouage numérique, d’authentification de contenu et de tamponnage de mèmes, car ils sont susceptibles de limiter les libertés de diverses manières.

2–3 minutes
Généré par IA

Le principe de base de l’ACLU est que le problème de la « désinformation » telle que celle rendue possible par l’IA générative ne peut pas être résolu par la technologie – car la technologie censée le faire est inadéquate en termes de précision et d’efficacité pour déterminer si le contenu a été modifié.

Dans le même temps, ces méthodes soutenues par les grandes entreprises technologiques et envisagées par les législateurs américains pourraient entraîner un certain nombre de préjudices, prévient l’association. Parmi les conséquences négatives, on peut citer ce que l’ACLU appelle un « oligopole imposé techniquement aux médias journalistiques ».

C’est un point commun, souligne l’association, avec un certain nombre de méthodes d’authentification de contenu actuellement évoquées. Si elles devenaient la norme, les médias qui ne disposent pas de ces informations d’identification seraient alors considérés comme « non fiables ».

Une autre tâche que les systèmes d’authentification cherchent à accomplir est la mise en place d’autorités cryptographiques qui deviennent alors l’arbitre de ce qui est digne de confiance ou authentique, ceux qui veulent être considérés comme des autorités médiatiques authentiques étant contraints d’utiliser Adobe, Microsoft, Apple et leurs semblables.

Une autre question soulevée par l’ACLU est de savoir dans quelle mesure la vie privée des photographes et des éditeurs serait affectée par la prolifération de ces programmes et leur élévation au rang de fonctionnalités standard.

Cela devient un problème si la modification de contenu considéré comme « fiable » ne peut être effectuée que sur des appareils ou des applications contrôlés par des géants de la technologie. L’ACLU évoque un scénario dans lequel un contenu montrant des brutalités policières serait modifié sur une plateforme dont on sait qu’elle se conforme aux demandes des forces de l’ordre.

Un autre problème est celui du coût d’utilisation des outils et des dispositifs qui permettraient de qualifier un contenu de fiable. Les personnes à faibles revenus seraient moins susceptibles d’avoir accès à la fois au matériel et aux logiciels, y compris dans les scénarios où une vidéo présentant des abus commis par les autorités et non « authentifiée » est ignorée car considérée comme « non fiable ».

Et puis, il y a l’autre côté de la médaille : le contenu qui est réellement modifié d’une manière qui le rend non fiable et passe pour fiable, grâce aux failles des méthodes d’authentification.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Un rapport du Congrès souligne comment le gouvernement fédéral utilise le développement de l’IA comme une arme pour la CENSURE

4–6 minutes
Généré par IA

  • Un rapport avertit que le gouvernement fédéral fait pression pour que l’IA développe des outils destinés à supprimer du contenu sur Internet.
  • Le rapport met en évidence les initiatives gouvernementales visant à développer des outils d’IA pour la censure, souvent déguisés en lutte contre la « désinformation ».
  • Le comité demande l’interdiction du financement gouvernemental de la recherche sur l’IA liée à la censure et de la collaboration avec des entités étrangères sur la réglementation de l’IA qui conduit à la censure.
  • Les entreprises d’IA du secteur privé s’alignent désormais sur les demandes du gouvernement en matière de développement de l’IA, notamment en utilisant l’IA pour les opérations de cybersécurité et de renseignement.

Le rapport récemment publié par le sous-comité judiciaire de la Chambre des représentants sur la militarisation du gouvernement fédéral révèle que l’administration sortante du président Joe Biden et de la vice-présidente Kamala Harris a tenté de façonner le développement de l’intelligence artificielle pour permettre une censure plus efficace du contenu en ligne .

Ces dernières années, les États-Unis et d’autres entités internationales comme le Canada, le Royaume-Uni et l’Union européenne ont considéré l’émergence de l’intelligence artificielle comme une menace. Mais le rapport du sous-comité indique que le véritable problème ne réside pas dans l’intelligence artificielle, mais dans les efforts déployés par les gouvernements pour l’utiliser afin de mieux réprimer la liberté d’expression sur Internet.

Le rapport, intitulé « La prochaine frontière de la censure : la tentative du gouvernement fédéral de contrôler l’intelligence artificielle pour supprimer la liberté d’expression », met en évidence la tendance alarmante des gouvernements et des tiers à financer, développer et déployer l’IA pour contrôler le discours en ligne . Cette volonté d’utiliser l’IA comme arme de censure a suscité de graves inquiétudes quant à l’avenir de la liberté d’expression et des libertés numériques. (Article connexe :  L’ancien PDG de Google prévient que l’IA représente une menace existentielle imminente .)

Le rapport soutient que la principale raison de l’inquiétude suscitée par le rôle de l’IA dans la diffusion de la « désinformation » est la volonté du gouvernement d’exploiter cette technologie à des fins de censure. Selon le comité, l’administration Biden-Harris a fait particulièrement pression sur les développeurs d’IA pour qu’ils intègrent des fonctions de censure dans leurs modèles.

Le rapport souligne qu’au lieu de s’attaquer aux problèmes sous-jacents de la désinformation, le gouvernement se concentre davantage sur la création d’outils permettant de censurer rapidement et efficacement les contenus. Cette approche, selon le comité, risque d’étouffer la liberté d’expression et de museler les voix dissidentes en ligne.

Selon le rapport, le gouvernement a pris plusieurs mesures directes pour réglementer le développement de l’IA et l’utiliser à son avantage politique.

La National Science Foundation a par exemple octroyé des subventions pour développer des outils d’intelligence artificielle destinés à « lutter contre la désinformation ». Cependant, le comité prévient que ces initiatives sont souvent des tentatives à peine voilées de contrôler le discours en ligne d’une manière qui correspond au programme actuel de l’administration.

Le rapport souligne que le gouvernement doit s’abstenir d’influencer les décisions privées en matière d’algorithmes et de bases de données en lien avec la « désinformation » ou les « préjugés ». Il appelle également à interdire le financement public de recherches liées à la censure et la collaboration avec des entités étrangères sur la réglementation de l’IA qui mènent à la censure.

Le secteur privé s’aligne sur les objectifs du gouvernement en matière de développement de l’IA

L’un des développements clés mis en évidence dans le rapport est la récente nomination du général de l’armée américaine à la retraite Paul Nakasone au conseil d’administration d’OpenAI. Nakasone est connu pour son précédent rôle à la tête du Cyber ​​Command du ministère de la Défense  et pour son expertise en matière de cybersécurité et d’opérations de renseignement.

Nakasone conseillera désormais OpenAI en matière de sécurité et de sûreté, et sa nomination est considérée comme un changement potentiel dans les priorités de l’entreprise vers un alignement sur les intérêts gouvernementaux et militaro-industriels.

Le rapport souligne que cette évolution s’inscrit dans une tendance plus large selon laquelle les géants de la technologie comme Amazon, Google et Microsoft s’alignent de plus en plus sur les programmes gouvernementaux et militaires sous couvert de « sécurité ». En conséquence, les entreprises qui promettaient autrefois de démocratiser l’information sont devenues des outils de surveillance et de contrôle.

Le rapport met en garde contre le fait que les systèmes d’intelligence artificielle avancés, initialement développés à des fins défensives, pourraient évoluer vers des outils de surveillance de masse. Il pourrait s’agir de surveiller les activités en ligne des citoyens, leurs communications, voire de prédire leurs comportements sous prétexte de lutter contre le terrorisme et les cybermenaces.

L’intelligence artificielle étant désormais conçue pour analyser de vastes quantités de données, le potentiel de ces outils à façonner le discours public est réel. Les critiques affirment que ces développements pourraient avoir un effet dissuasif sur la liberté d’expression, les gens hésitant à exprimer leurs opinions de peur d’être qualifiés de « mésinformation » ou de « désinformation ».

Dans son rapport, le sous-comité souligne que si l’IA pouvait se développer librement, elle pourrait accroître la capacité des Américains à créer des connaissances et à s’exprimer. Cependant, la trajectoire actuelle suggère que l’IA pourrait être déformée pour servir les intérêts de ceux qui sont au pouvoir, plutôt que pour renforcer les libertés individuelles.

Les sources incluent :

ReclaimTheNet.com

Newsweek.com

Brighteon.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

L’IA de surveillance détecte les idées suicidaires dans les écoles et envoie la police au domicile des élèves

À l’ère de l’intégration croissante de la technologie dans tous les aspects de la vie, les écoles se trouvent à l’avant-garde d’une tendance inquiétante : l’utilisation généralisée de logiciels basés sur l’IA pour surveiller et analyser le comportement et la santé mentale de leurs élèves. Ce qui a commencé comme un effort bien intentionné pour protéger les enfants contre l’automutilation s’est transformé en un scénario complexe et souvent troublant, où la surveillance et les algorithmes d’IA déterminent si les enfants sont suicidaires en fonction de leur activité informatique .

Généré par IA

Le New York Times a récemment fait état de l’utilisation de logiciels comme GoGuardian Beacon , qui enregistre chaque mot tapé sur les appareils fournis par l’école afin d’identifier d’éventuelles idées suicidaires. Cependant, les résultats sont loin d’être rassurants. Le logiciel interprète souvent mal les communications des élèves, ce qui entraîne de fausses alertes et, dans certains cas, l’intervention des forces de l’ordre.

Un logiciel de surveillance IA envoie la police au domicile des étudiants

À Neosho, dans le Missouri, une jeune fille de 17 ans a été réveillée au milieu de la nuit par la police après qu’un poème qu’elle avait écrit il y a des années a été signalé par GoGuardian Beacon. L’incident a été décrit par sa mère comme l’une des expériences les plus traumatisantes de sa vie. Ce n’est qu’un des nombreux incidents documentés qui soulèvent de sérieuses questions sur l’efficacité et l’éthique de cette technologie.

Ces systèmes, qui reposent sur une collecte de données sophistiquée , constituent une atteinte importante à la vie privée des étudiants, et leur efficacité est peu prouvée. Les groupes de défense des droits civiques sont particulièrement alarmés par l’implication des forces de l’ordre dans ce qui s’avère souvent être de fausses alertes. Le manque de transparence et de responsabilité des entreprises à l’origine de ces technologies constitue une autre préoccupation majeure.

De plus, le déploiement d’outils d’IA dans les salles de classe ne se limite pas aux systèmes d’intervention d’urgence. Des plateformes comme SchoolAI prétendent aider les enseignants à répondre non seulement aux besoins académiques, mais aussi aux aspects sociaux, comportementaux et de santé mentale de leurs élèves. Cette approche holistique semble prometteuse à première vue, mais elle soulève également de sérieuses questions sur les véritables intentions derrière cette technologie.

Par exemple, certains enseignants utilisent l’outil « sonnerie » de SchoolAI pour interagir avec les élèves grâce à un chatbot qui recueille des informations sur leur humeur et leur attitude à l’égard de l’apprentissage. Le système génère ensuite une « carte thermique » permettant à l’enseignant de surveiller les émotions des élèves. Si les partisans de cette méthode affirment qu’elle aide les enseignants à identifier les élèves qui ont besoin de soutien, beaucoup y voient une autre forme de surveillance intrusive.

Les systèmes de surveillance de l’IA peuvent élargir le fossé entre les interactions humaines, perpétuant ainsi les luttes mentales

Ces systèmes d’IA constituent-ils vraiment la meilleure approche pour assurer le bien-être mental des élèves ? Cette technologie semble fournir une solution superficielle, en offrant aux enseignants un « centre de commandement et de contrôle » pour surveiller l’état émotionnel de leurs élèves . Cependant, elle soulève des inquiétudes quant à l’impact à long terme d’une telle surveillance constante sur la vie privée et l’autonomie des élèves.

De plus, l’utilisation de l’IA dans les centres de conseil scolaire pour recueillir et analyser des données sur les niveaux de santé mentale des élèves, tels que l’anxiété, la dépression et le bonheur général, semble brouiller les frontières entre thérapie et surveillance. À mesure que ces outils deviennent plus sophistiqués, ils peuvent fournir des informations en temps réel sur le comportement des élèves, mais ils risquent également de transformer les écoles en environnements où la vie privée n’est qu’une considération secondaire et où l’attention d’un conseiller ou d’un enseignant humain est réduite à une simple collecte de données, au lieu d’une véritable préoccupation humaine.

L’IA dans les écoles est souvent présentée comme un moyen d’améliorer l’efficacité et l’allocation des ressources. Les enseignants et les administrateurs n’hésitent pas à souligner les avantages potentiels, comme la réduction de la charge de travail et l’amélioration du soutien émotionnel des élèves. Cependant, les risques sont tout aussi importants : les élèves se sentent moins soutenus émotionnellement qu’avant, les administrateurs jouent sur leur humeur et s’immiscent dans leurs pensées.

Alors que nous continuons d’intégrer l’IA dans nos écoles, nous devons nous demander : est-ce que nous nous attaquons vraiment aux causes profondes de la détresse des élèves, ou est-ce que nous créons simplement un environnement dans lequel les élèves sont constamment surveillés, leurs paroles et leurs actions analysées à la recherche d’éventuels signaux d’alerte ? La promesse de la technologie pour aider les élèves est indéniable, mais elle doit être mise en balance avec les préoccupations bien réelles en matière de confidentialité, d’autonomie et de risque d’utilisation abusive.

Les sources incluent :

Technocratie.actualités

NYTimes.com

Futurisme.com

WestJordanJournal.com

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

YouTube s’associe à la CAA pour permettre aux talents de supprimer les deepfakes générés par l’IA, suscitant ainsi des craintes de censure pour les mèmes et les commentaires

YouTube et CAA unissent leurs forces pour lutter contre les deepfakes de l’IA, permettant aux membres de l’industrie de supprimer du contenu.

Généré par IA

Une nouvelle collaboration entre YouTube et l’agence artistique CAA fait des vagues, mais non sans susciter des inquiétudes quant à ses implications plus larges.

Ce partenariat, qui vise à permettre aux célébrités d’identifier et de supprimer les deepfakes générés par l’IA, est présenté comme une étape vers une « IA responsable ». Cependant, comme pour les fonctions de suppression automatique des droits d’auteur de YouTube, cette nouvelle fonctionnalité pourrait ouvrir la voie à une pente glissante de censure de contenu, réduisant potentiellement au silence la satire, les mèmes et même les commentaires critiques.

YouTube, qui se positionne comme un champion des industries créatives, a développé un outil de gestion de l’image de marque destiné à aider les talents à lutter contre les contenus créés par l’IA. Cet outil permettrait aux acteurs, aux athlètes et à d’autres personnalités publiques de signaler et de demander la suppression des vidéos deepfake présentant leurs images.

Les clients de CAA, décrits comme ayant été « impactés par les récentes innovations en matière d’IA », seront parmi les premiers à tester ce système début 2025. Bien que l’identité des célébrités participantes reste confidentielle, YouTube prévoit d’étendre les tests pour inclure les meilleurs créateurs et d’autres personnalités de premier plan.

Selon YouTube, cette initiative s’inscrit dans le cadre de ses efforts plus vastes visant à établir un « écosystème d’IA responsable ».

Dans un article de blog, l’entreprise a souligné son engagement à fournir aux talents des outils pour protéger leurs identités numériques. Mais les sceptiques affirment depuis longtemps que cette approche risque d’aller trop loin, en donnant à quelques privilégiés le pouvoir de dicter ce qui peut ou non être partagé en ligne.

Bryan Lourd, PDG de la CAA, a salué les efforts de YouTube, affirmant que ce partenariat s’aligne sur les objectifs de l’agence visant à protéger les artistes tout en explorant de nouvelles voies pour la créativité. « Chez CAA, nos discussions sur l’IA sont centrées sur l’éthique et les droits des talents », a déclaré Lourd, saluant la solution « favorable aux talents » de YouTube. Mais si ces objectifs semblent nobles, ils masquent une préoccupation plus vaste : où se situe la limite entre la protection de l’image d’une personne et l’étouffement de l’expression légitime ?

Les critiques de l’initiative craignent qu’elle puisse conduire à une suppression involontaire de contenu, en particulier de mèmes et de parodies qui s’appuient souvent sur une réinterprétation créative de personnalités publiques.

Historiquement, ce type de contenu a été protégé par les lois sur l’utilisation équitable, mais la volonté croissante de réglementer les médias générés par l’IA risque de porter atteinte à ces protections. Alors que YouTube expérimente de nouveaux outils pour détecter et gérer les visages générés par l’IA, il convient de se demander comment cette technologie pourrait être utilisée comme arme pour réprimer la dissidence ou la critique sur la place publique numérique.

L’annonce de YouTube fait suite à l’introduction d’autres technologies de détection d’IA, qui alimentent la controverse. Récemment, la plateforme a déployé des outils permettant d’identifier les voix de chant synthétiques et a donné aux créateurs la possibilité d’autoriser des tiers à utiliser leur contenu pour former des modèles d’IA. Si ces avancées sont présentées comme des atouts, elles confèrent également à YouTube un immense contrôle sur les limites de la créativité numérique.

Le PDG de YouTube, Neal Mohan, a salué l’implication de la CAA, décrivant l’agence comme un « premier partenaire solide » pour tester ses outils de détection d’IA. « Chez YouTube, nous pensons qu’une approche responsable de l’IA commence par des partenariats solides », a déclaré M. Mohan. Mais les critiques restent prudents, se demandant dans quelle mesure de telles initiatives peuvent être « responsables » lorsqu’elles sont susceptibles de restreindre la liberté d’expression.

À mesure que les technologies d’IA évoluent, le débat sur la manière de gérer leurs impacts s’intensifie. Si la protection contre les deepfakes malveillants est indéniablement importante, les outils conçus pour les combattre ne doivent pas se faire au détriment de la créativité, de la critique et de l’échange d’idées ouvert. Alors que YouTube et la CAA repoussent les limites de la gestion des droits numériques, il reste à voir si ces efforts parviendront à trouver le bon équilibre ou à faire pencher la balance en faveur de la censure.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil