Plus de 100 pays soutiennent le pacte sur l’intelligence artificielle lié à l’ONU, qui encourage la censure et la surveillance

Le sommet mondial sur l’IA fait progresser la gouvernance soutenue par l’ONU, mais les inquiétudes grandissent concernant les liens avec la censure et la surveillance.

2–3 minutes

Le Sommet d’action sur l’IA, qui s’est tenu à Paris cette semaine, a réuni 60 signataires soutenant une déclaration sur « une intelligence artificielle inclusive et durable pour les personnes et la planète ».

Parmi les dizaines de pays concernés figurent l’Union européenne et la Commission de l’Union africaine, ainsi que l’Australie, le Brésil, le Canada, la Chine, la France, l’Allemagne – mais pas les États-Unis ni le Royaume-Uni.

La réunion en France a réuni des représentants de gouvernements, d’organisations internationales, de la société civile, d’universitaires, de chercheurs et du secteur privé.

La déclaration s’engage à respecter un certain nombre d’initiatives des Nations Unies, comme les Objectifs de développement durable (ODD), régulièrement critiqués pour avoir favorisé la censure et la surveillance. Parmi les autres initiatives internationales citées figurent la Recommandation de l’UNESCO sur l’éthique de l’IA et un certain nombre de résolutions de l’Assemblée générale des Nations Unies.

Mais le document signé à Paris évoque le renforcement de la coopération internationale et une gouvernance internationale mieux coordonnée comme principales priorités, tout en s’engageant, de manière inquiétante (étant donné que « l’intégrité de l’information » est souvent utilisée comme un « mot de code » pour la censure) à « continuer à s’attaquer aux risques de l’IA pour l’intégrité de l’information ».

Afin de renforcer le travail conjoint sur les initiatives d’IA « publiques et privées », les partisans de la déclaration ont lancé la Plateforme et l’Incubateur d’IA d’intérêt public.

En ce qui concerne l’approbation des ODD de l’ONU et la manière dont cela peut faire obstacle à la liberté d’expression, il convient de rappeler que cet ensemble de 17 objectifs mondiaux interconnectés favorise non seulement l’identité numérique, mais aussi indirectement la censure de ce que les autorités considèrent comme des « menaces à l’intégrité de l’information » qui peuvent avoir un impact négatif sur les ODD – comme les « discours de haine », la « désinformation », etc.

Une autre initiative de l’ONU mentionnée par la Déclaration de Paris dans le Pacte numérique mondial, dont les signataires ont convenu qu’elle servirait de base au lancement d’un Dialogue mondial sur la gouvernance de l’IA et du Groupe scientifique international indépendant sur l’IA, comme moyen « d’aligner les efforts de gouvernance en cours ».

Le Pacte numérique mondial est l’une des annexes du Pacte pour l’avenir de l’ONU, qui promeut notamment l’identification numérique (via ce que l’ONU, l’UE, le WEF et la Fondation Gates aiment appeler l’infrastructure publique numérique, DPI), ainsi qu’un certain nombre de politiques de censure et de surveillance, liées à la « lutte contre et au traitement » des éléments considérés comme des « discours de haine », de la « mésinformation », de la « désinformation » et de la « cyberintimidation ».

Le Pacte pour l’avenir, tout en affirmant que des mesures de protection de la vie privée sont intégrées, promeut également une plus grande « circulation (partage) de données transfrontalières ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Pourquoi ils détestent vraiment Elon Musk

par Connor O’Keeffe | Mises Institute

Le problème de l’establishment avec Elon Musk, c’est qu’il menace une partie de leur pouvoir. Et pour eux, c’est inacceptable.

5–7 minutes

Alors qu’Elon Musk continue de prendre le contrôle et de réduire certaines parties de la bureaucratie fédérale, les personnalités de l’establishment des médias et de la politique sont de plus en plus mécontentes de l’entrepreneur technologique. Si vous lisez un  journal national , regardez une grande chaîne d’information ou regardez l’une des nombreuses émissions satiriques de fin de soirée de l’establishment, vous verrez forcément Musk se faire moquer et critiquer sans relâche.

Il est présenté comme un homme riche qui utilise le gouvernement pour devenir encore plus riche et comme un agent politique prêt à contourner les règles et les normes pour obtenir ce qu’il veut. De nombreux membres de l’establishment aiment également rappeler à leur public qu’Elon Musk n’est pas élu à la moindre occasion, ce qui suggère de manière pas si subtile que les actions qu’il mène actuellement à Washington sont illégitimes.

On entendra aussi critiquer Musk et son équipe pour avoir mené une partie de leur travail en secret. Et puis il y a bien sûr la critique devenue populaire après son démantèlement de l’USAID : il serait prêt à faire du mal aux pauvres pour améliorer sa situation.

Laissant de côté les nombreux défauts et inexactitudes de ces caractérisations d’Elon Musk, il convient de noter qu’elles s’appliquent toutes encore plus précisément à l’establishment politique américain lui-même.

Pour commencer, « les riches utilisent le gouvernement pour leur propre bénéfice » est la définition du système politique américain depuis plus d’un siècle. Comme l’a expliqué en détail Murray Rothbard dans son  livre  The Progressive Era , la transition du système gouvernemental laxiste et hyper-limité du milieu du XIXe siècle n’a pas été motivée par le plaidoyer de la base pour protéger les travailleurs et assurer la salubrité des aliments, comme on nous l’a enseigné à l’école primaire. Elle est née de la reconnaissance par les chefs d’entreprise qu’ils pourraient protéger beaucoup plus efficacement leur part de marché face à des concurrents plus petits et continuer à l’accroître s’ils utilisaient le pouvoir du gouvernement à leur propre avantage. En d’autres termes, la clé pour rester au sommet est passée de l’innovation au lobbying.

Cela a commencé avec les compagnies de chemin de fer à la fin des années 1800, mais s’est rapidement étendu aux agriculteurs industriels, aux prestataires de soins de santé et aux banquiers au début des années 1900, suivis par les sociétés d’armement, les sociétés de Wall Street et bien d’autres dans la seconde moitié du siècle.

Aujourd’hui, pratiquement toutes les sociétés géantes qui dominent ces industries doivent leur position aux politiques gouvernementales mises en place en leur faveur, au détriment du public américain.

L’establishment politique moderne se définit par sa volonté et sa capacité à protéger et à étendre cette dynamique. Il est risible de les entendre critiquer à tort Musk pour avoir fait la même chose.

Il en va de même pour sa prétendue violation des règles et normes constitutionnelles. Nombre des voix les plus virulentes de l’establishment condamnant ce comportement ont applaudi avec la même vigueur que les administrations de George Bush, Bill Clinton, George W. Bush et Barack Obama  ont lancé  des dizaines de guerres non déclarées,  mené  des surveillances sans mandat,  utilisé  la torture,  perpétré  des assassinats extrajudiciaires sur des citoyens américains et  fourni  de l’aide et du réconfort à Al-Qaïda.

Il s’agit au minimum de violations explicites de  l’article 1, section 8 ;  de l’article 3, section 3 ; et du  sixième amendement  de la Constitution, ainsi que  de l’article 2340A  du titre 18 du Code des États-Unis.

Et pendant la pandémie de Covid, l’establishment politique a adopté exactement le même type d’approche que celle pour laquelle il reproche aujourd’hui à Elon Musk de mener. Les gouvernements fédéral et étatiques se sont précipités pour fermer les entreprises, les écoles et les églises et interdire aux gens d’assister à des rassemblements publics, tout cela sans  même faire semblant  de se soucier des règles et normes constitutionnelles dont ils feignent aujourd’hui de se préoccuper.

Ensuite, il est ridicule de sous-entendre que les actions d’Elon Musk sont illégitimes parce qu’il n’est pas élu. Non seulement les électeurs ont été clairement informés avant les élections que Musk agirait ainsi si Trump gagnait, mais la quasi-totalité des fonctionnaires fédéraux que l’establishment tente de protéger de Musk ne sont pas non plus élus. Les millions de fonctionnaires non élus qui dirigent l’essentiel des opérations du gouvernement fédéral ont été recrutés et mis au travail sans même une fraction de la transparence et de la publicité nécessaires à la nomination d’Elon Musk par Trump.

En parlant de transparence, il est comique qu’une classe politique qui  classe  environ cinquante millions de documents par an – dont quatre-vingt-dix pour cent sont « probablement inutiles »  selon  certains experts juridiques de l’establishment – exprime son dégoût face à l’usage occasionnel de la discrétion par l’équipe de Musk.

Enfin, il est consternant d’entendre l’establishment politique américain critiquer Elon Musk pour sa prétendue volonté de nuire aux pauvres et aux vulnérables afin d’améliorer sa situation. C’est essentiellement tout ce que ces gens ont fait pendant tout le temps qu’ils sont au pouvoir. Plus d’un siècle d’ingérence du gouvernement dans des secteurs d’importance cruciale a rendu plus difficile pour les Américains les plus pauvres de se payer de la nourriture, de l’éducation, du logement, des services de santé et des médicaments.

Les politiques fédérales ont  découragé  les décisions financières raisonnables comme l’épargne, tout en encourageant les investissements plus risqués auprès d’entreprises politiquement connectées – tout comme d’autres politiques  poussent  les Américains à adopter un régime alimentaire tragiquement malsain au profit d’entreprises alimentaires, de soins de santé et pharmaceutiques bien connectées.

Et puis, bien sûr, il y a les guerres lancées par l’establishment politique au Moyen-Orient, en Afrique du Nord et maintenant en Europe de l’Est. Ces guerres ont  rapporté  des milliers de milliards de dollars aux entreprises d’armement et autres sous-traitants. Mais elles ont aussi  tué  des millions de personnes et détruit des dizaines de millions de vies dans ces régions.

Comprendre qui est réellement l’establishment politique et ce qu’il a fait montre clairement que les principes qu’il prétend avoir lorsqu’il dénonce Elon Musk sont faux.

Le problème de l’establishment avec Elon Musk n’est pas qu’il soit prêt à bouleverser les normes et à tester ou à enfreindre les règles. Ils ont montré une volonté enthousiaste de le faire eux-mêmes.

Le problème de l’establishment avec Elon Musk, c’est qu’il menace une partie de leur pouvoir. Et pour eux, c’est inacceptable.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Google renforce son emprise sur les extensions Chrome alors que les bloqueurs de publicités sont touchés

Le déploiement de Manifest V3 de Google renforce le contrôle sur les extensions Chrome, limitant les bloqueurs de publicités et les outils de confidentialité.

2–3 minutes

Chaque décision prise par Google concernant le développement et les fonctionnalités de Chrome est prise à partir d’une position de puissance de marché extrême, étant donné que le navigateur est de loin le plus utilisé dans une grande partie du monde – et sur lequel un certain nombre d’autres navigateurs sont basés.

Ces faits rendent les controverses en cours autour de l’introduction de Manifest V3 – une nouvelle version de l’API d’extension de Chrome, en préparation depuis 2018 – d’autant plus flagrantes et importantes.

Google affirme que Manifest V3 est là pour rendre l’architecture des extensions plus sûre tout en améliorant les performances de Chrome, tandis que les critiques, notamment un certain nombre de développeurs d’extensions qui bloquent les publicités et/ou améliorent la confidentialité, soutiennent que les nouvelles règles imposent des restrictions sur les fonctionnalités et les caractéristiques de leur logiciel.

Bien que Google ait initialement nié que l’objectif était de supprimer le blocage des publicités (même si cela a parfaitement du sens du point de vue du géant, compte tenu de son modèle économique), c’est ce qui se passe effectivement lentement maintenant que Manifest V2 est remplacé, les extensions l’utilisant ne étant plus prises en charge dans le navigateur.

Parmi les développeurs qui ont détaillé la manière dont Manifest V3 affecte leurs extensions, on trouve uBlock Origin , un logiciel populaire et très apprécié des utilisateurs , dont le créateur Raymond Hill a décidé d’arrêter son développement pour Chrome, conseillant aux utilisateurs de migrer vers des navigateurs prenant en charge la version complète d’uBlock.

Les utilisateurs de Chrome, quant à eux, devront composer avec uBlock Origin Lite, dont les fonctionnalités sont limitées, afin de se conformer à Manifest V3.

Ceux qui sont derrière le concurrent d’uBlock, AdGuard, ont récemment révélé quels éléments de l’extension ils ont dû supprimer à cause de Manifest V3 – le filtre Quick Fixes sur une base permanente et le filtre personnalisé sur une base temporaire.

Un porte-parole a déclaré qu’à mesure que les nouvelles règles sont appliquées, il est devenu évident qu’elles sont « beaucoup plus restrictives » en termes de flexibilité dans la résolution des problèmes de compatibilité qu’il ne semblait le cas auparavant – affirmant que Chrome, par exemple, est revenu sur ses assurances selon lesquelles la fonctionnalité de blocage des publicités ne serait pas classée comme du code distant.

L’« amélioration » promise des performances de Chrome est quelque chose qui doit encore être correctement testé et déterminé.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

«Connard», «proxénète»: Xaviel Niel et Elon Musk s’insultent

Échange musclé entre le milliardaire américain et le grand patron français.

1–2 minutes

L’homme d’affaires français Xavier Niel pense qu’Elon Musk est «peut-être parfois un connard» et l’homme le plus riche du monde a répondu en qualifiant le fondateur de Free de «proxénète» sur son réseau social X lundi.

«Je pense que c’est le plus grand entrepreneur du monde, et à côté de ça un garçon qu’on va qualifier au minimum de complexe, (et) je vais utiliser un mot difficile, peut-être parfois un connard, voilà», a déclaré Xavier Niel sur l’émission Télématin.

L’extrait a été relayé sur X, entraînant une réponse d’Elon Musk.

«Ce type a été envoyé en prison pour avoir été un véritable proxénète avec un groupe de prostituées! Laissez-moi rire», a écrit le patron de Tesla et SpaceX, propriétaire de X et proche allié de Donald Trump.

Xavier Niel a été lavé d’accusations de proxénétisme en 2005.

Laboratoire français de recherche en IA

Les deux magnats des affaires contrôlent plusieurs entreprises, y compris dans l’intelligence artificielle (IA), qui fait l’objet d’un sommet international à Paris cette semaine.

Propriétaire du groupe Iliad, fondateur de l’opérateur Free et de Station F (plus grand incubateur de start-up au monde), Xavier Niel a lancé fin 2023 Kyutai, un laboratoire français de recherche en IA, avec l’aide de l’ancien patron de Google Eric Schmidt.

Il a connu des ennuis judiciaires à ses débuts, quand ses investissements dans des sex-shops lui ont valu des soupçons de proxénétisme et de recel d’abus de biens sociaux.

Mis en examen, il a passé un mois en détention. Finalement lavé du premier chef, il est condamné en octobre 2006 à deux ans de prison avec sursis et 250’000 euros d’amende pour le second.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Vance rejette les réglementations mondiales sur l’IA lors du sommet de Paris, avertissant qu’elles menacent l’innovation, la liberté d’expression et le leadership technologique des États-Unis.

Le vice-président américain JD Vance s’est fermement opposé aux efforts mondiaux visant à imposer des réglementations plus strictes sur l’intelligence artificielle et la liberté d’expression lors du sommet de Paris sur l’IA mardi, avertissant qu’une surveillance excessive pourrait étouffer l’innovation et la liberté d’expression dans ce secteur en pleine croissance.

3–4 minutes

S’adressant à un public de dirigeants internationaux et de dirigeants du secteur technologique, Vance a critiqué les gouvernements étrangers pour avoir « resserré la vis » sur les entreprises et plateformes technologiques américaines, signalant l’engagement de l’administration Trump à préserver la liberté d’expression et à prévenir les préjugés idéologiques dans l’IA.

Alors que la présidente de la Commission européenne, Ursula von der Leyen, a souligné la nécessité d’une intelligence artificielle « sûre » et de préserver « la confiance des citoyens », Vance a adopté une position différente, promettant que les États-Unis ne participeraient pas à des politiques restrictives. Il a assuré que les systèmes d’intelligence artificielle développés aux États-Unis resteraient libres de toute contrainte idéologique et a promis : « Nous ne restreindrons jamais le droit de nos citoyens à la liberté d’expression. »

Les États-Unis ont notamment refusé de signer un accord international approuvé par plus de 60 pays, dont la Chine, qui appelait à l’accessibilité de l’IA pour combler les fractures numériques et garantir que l’IA fonctionne de manière « ouverte, inclusive, transparente, éthique, sûre, sécurisée et digne de confiance ». L’accord mettait également l’accent sur la durabilité et la protection des droits de l’homme, l’égalité des sexes, la diversité linguistique, les droits des consommateurs et la propriété intellectuelle.

Vance a clairement indiqué que l’administration Trump ne tolérerait pas les efforts étrangers visant à renforcer les restrictions imposées aux entreprises technologiques américaines et à la liberté d’expression des citoyens. Il a averti que les excès réglementaires, en particulier de la part des gouvernements européens, pourraient entraver l’innovation et imposer des contraintes excessives aux entreprises américaines opérant à l’international. Citant comme exemple la loi sur la censure de l’Union européenne, le Digital Services Act , Vance a fait valoir que les règles de modération de contenu radicales vont souvent au-delà des préoccupations légitimes comme la sécurité des enfants et virent à la censure idéologique.

Les remarques de Vance soulignent l’engagement plus large de l’administration à protéger la liberté d’expression dans le monde numérique. Tout en reconnaissant la nécessité d’une gouvernance responsable de l’IA, il a rejeté les mesures qui, selon lui, confondent contenu préjudiciable et opinions impopulaires ou controversées. « C’est une chose d’empêcher un prédateur de s’en prendre à un enfant sur Internet », a-t-il déclaré, « et c’en est une autre d’empêcher un homme ou une femme adulte d’accéder à une opinion que le gouvernement considère comme de la désinformation. »

Vance a adopté une position ferme contre l’utilisation abusive de l’IA par les régimes autoritaires, mettant en garde contre son potentiel en tant qu’outil de surveillance et de propagande. « Nous avons également vu des adversaires étrangers hostiles utiliser des logiciels d’IA comme armes pour réécrire l’histoire, surveiller les utilisateurs et censurer les discours… Certains régimes autoritaires ont volé et utilisé l’IA pour renforcer leurs capacités de renseignement et de surveillance militaires afin de capturer des données étrangères et de créer de la propagande pour porter atteinte à la sécurité nationale d’autres nations. Je veux être clair : cette administration bloquera ces efforts, point final. »

Le sommet de Paris a coïncidé avec l’entrée en vigueur par l’Union européenne de sa loi historique sur l’IA, le premier cadre juridique complet au monde pour l’intelligence artificielle, qui est entré en vigueur en août 2024.

Pendant ce temps, les tensions autour de la gouvernance de l’IA ont continué de s’intensifier. Lundi, les responsables de Pékin ont condamné les restrictions occidentales sur l’accès à l’IA, réagissant aux mesures législatives visant à interdire l’application chinoise DeepSeek des appareils gouvernementaux pour des raisons de sécurité nationale.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Amazon va investir environ 100 milliards de dollars dans l’IA en 2025

Amazon a annoncé son intention de réaliser un investissement massif dans l’intelligence artificielle cette année.

2–3 minutes

Le géant du commerce électronique a l’intention d’augmenter ses dépenses d’investissement à 100 milliards de dollars, ce qui représenterait une augmentation considérable par rapport aux 83 milliards de dollars déjà élevés enregistrés par Amazon en 2024.

« Nous avons dépensé 26,3 milliards de dollars en dépenses d’investissement au quatrième trimestre, et je pense que cela est raisonnablement représentatif de ce que vous attendez d’un taux d’investissement annualisé en 2025 », a déclaré le PDG d’Amazon, Andy Jassy, ​​lors d’une conférence téléphonique sur les résultats du quatrième trimestre avec les investisseurs, selon CNBC.

« La grande majorité de ces dépenses d’investissement est consacrée à l’IA pour AWS », a-t-il déclaré, faisant référence à la branche de cloud computing à la demande de l’entreprise.

L’année dernière, le Dallas Express a rapporté qu’Amazon prévoyait de dépenser près de 150 milliards de dollars dans des centres de données au cours des 15 prochaines années. Cet investissement vise à anticiper la demande continue de croissance dans le domaine de l’IA, qui nécessite beaucoup de ressources.

Amazon va rejoindre d’autres grands noms de la technologie en investissant des milliards de dollars dans l’intelligence artificielle.

Alphabet, la maison mère de Google, a annoncé qu’elle prévoyait de dépenser environ 75 milliards de dollars cette année, tandis que Microsoft a déclaré qu’elle prévoyait de dépenser 80 milliards de dollars au cours de l’exercice 2025 pour renflouer les centres de données afin de soutenir l’IA. Meta a également annoncé qu’elle dépenserait plus de 65 milliards de dollars cette année.

Une partie de ces dépenses finira probablement dans le Lone Star State.

Le nord du Texas, en particulier, a été au cœur de la croissance des centres de données, avec une explosion du nombre de constructions. Un rapport publié en novembre dernier a classé la région de Dallas-Fort Worth au deuxième rang du pays en termes d’utilisation de centres de données, avec 776 mégawatts de capacité d’énergie informatique critique louée.

En 2024, Google a annoncé son intention d’investir plus d’un milliard de dollars au Texas d’ici la fin de 2024, dont près de 600 millions de dollars pour soutenir son centre de données de Red Oak.

Microsoft Corp. et QTS Realty Trust LLC, une société basée au Kansas, ont annoncé en décembre qu’ils allaient construire plus d’un million de pieds carrés de nouveaux centres de données dans le nord du Texas. Microsoft devrait construire quatre des sept installations situées à Irving.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le sommet de Paris sur l’IA attire des dirigeants et des PDG du monde entier désireux d’une réglementation plus légère

  • La France accueille le sommet des 10 et 11 février
  • Les entreprises technologiques affirment que la réglementation peut freiner l’innovation
  • Trump a déchiré sa récente politique en matière d’IA
  • Appels à plus de clémence en Europe
4–6 minutes

PARIS, 10 février (Reuters) – Les dirigeants mondiaux et les dirigeants du secteur technologique se sont réunis lundi à Paris pour annoncer de nouveaux investissements dans l’intelligence artificielle et discuter de la manière d’adopter l’IA en toute sécurité à une époque de résistance croissante aux lourdeurs administratives qui, selon les entreprises, freinent l’innovation.

L’empressement à maîtriser l’IA s’est estompé depuis les sommets précédents en Grande-Bretagne et en Corée du Sud qui ont attiré l’attention des puissances mondiales sur les risques de cette technologie après le lancement viral de ChatGPT en 2022.

Alors que le président américain 

Donald Trump détruit les garde-fous de son prédécesseur en matière d’IA pour promouvoir la compétitivité des États-Unis, la pression s’accentue sur l’Union européenne pour qu’elle adopte une approche plus légère de l’IA afin d’aider les entreprises européennes à rester dans la course technologique.« Si nous voulons de la croissance, des emplois et du progrès, nous devons permettre aux innovateurs d’innover, aux constructeurs de construire et aux développeurs de développer », a déclaré le PDG d’OpenAI, Sam Altman, dans un éditorial du journal Le Monde avant le sommet.

Certains dirigeants européens, dont l’hôte du sommet, le président français Emmanuel Macron, espèrent également qu’une certaine flexibilité sera appliquée à la nouvelle loi sur l’IA du bloc pour aider les startups locales.

« Il y a le risque que certains décident de ne pas avoir de règles et c’est dangereux. Mais il y a aussi le risque inverse, si l’Europe se donne trop de règles », a déclaré Macron à la presse régionale.

« Nous ne devons pas avoir peur de l’innovation », a-t-il déclaré.

Les premières mesures prises par Trump en matière d’IA ont souligné à quel point les stratégies de régulation de l’IA aux États-Unis, en Chine et dans l’UE divergent.L’année dernière, les législateurs européens ont approuvé la loi sur l’intelligence artificielle, le premier ensemble complet de règles au monde régissant cette technologie. Les géants de la technologie et certaines capitales font pression pour qu’elle soit appliquée avec souplesse.

Pendant ce temps, l’entreprise chinoise DeepSeek a défié le mois dernier le leadership des États-Unis en matière d’IA en distribuant gratuitement un système de raisonnement de type humain, galvanisant ainsi les rivaux géopolitiques et industriels pour qu’ils accélèrent encore la course.

PLUS D’INVESTISSEMENT

L’un des résultats du sommet a été le lancement de Current AI, un partenariat entre des pays comme la France et l’Allemagne et des acteurs du secteur, dont Google et Salesforce.

Doté d’un investissement initial de 400 millions de dollars, le partenariat sera le fer de lance de projets d’intérêt public tels que la mise à disposition de données de haute qualité pour l’IA et l’investissement dans des outils open source. Il vise un capital pouvant atteindre 2,5 milliards de dollars sur cinq ans.

Martin Tisné, actuel fondateur de l’IA, a déclaré à Reuters qu’il était nécessaire de se concentrer sur l’intérêt général pour éviter que l’IA ne présente des inconvénients comme les réseaux sociaux. « Nous devons avoir tiré les leçons de cette expérience », a-t-il déclaré.

Par ailleurs, la France annoncera des investissements du secteur privé totalisant quelque 109 milliards d’euros (113 milliards de dollars) lors du sommet, a déclaré Macron dimanche.

« L’ampleur de cet investissement de 100 milliards d’euros nous a rassurés, d’une certaine manière, sur le fait qu’il y aura des projets suffisamment ambitieux en France », a déclaré Clem Delangue, PDG de Hugging Face, une société américaine avec des cofondateurs français qui est un pôle d’IA open source en ligne.

Delangue a déclaré que son entreprise doublerait ses investissements en France pour embaucher plus de personnel et se concentrer sur la technologie, notamment la robotique, mais il a refusé de dire combien cela représenterait.

Les délégations discutent de déclarations non contraignantes sur la gestion de l’IA et sur la gestion des besoins énergétiques massifs de l’IA à mesure que la planète se réchauffe.

RISQUES

À Paris, tout le monde n’était pas d’accord avec une approche plus légère de la réglementation de l’IA.En termes de réglementation, « c’est comme le jour et la nuit entre les États-Unis et l’UE à l’heure actuelle », a déclaré Brian Chen, directeur politique chez Data & Society, une organisation à but non lucratif basée aux États-Unis qui étudie les implications sociales de l’IA.« Ce qui m’inquiète, c’est qu’il y aura des pressions de la part des États-Unis et d’ailleurs pour affaiblir la loi européenne sur l’IA et affaiblir les protections existantes », a-t-il déclaré.Les dirigeants syndicaux ont exprimé leurs inquiétudes quant à l’impact de l’IA sur les travailleurs, notamment sur ce qui arrive aux travailleurs dont les emplois sont repris par l’IA et poussés vers de nouveaux emplois.« Il y a un risque que ces emplois soient beaucoup moins bien payés et parfois avec beaucoup moins de protection », a déclaré Gilbert F. Houngbo, directeur général de l’Organisation internationale du travail.

Des dirigeants politiques de premier plan, dont le vice-président américain JD Vance et le vice-Premier ministre chinois Zhang Guoqing, participeront au sommet. Macron doit rencontrer Zhang lundi et Vance mardi, a indiqué la présidence française.

Des dirigeants politiques de premier plan, dont le vice-président américain JD Vance et le vice-Premier ministre chinois Zhang Guoqing, participeront au sommet. Macron doit rencontrer Zhang lundi et Vance mardi, a indiqué la présidence française.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les nouvelles règles d’enregistrement dans les hôtels espagnols transforment un simple séjour en un cauchemar bureaucratique envahissant la vie privée.

Il devient de plus en plus difficile pour les gens de « se détendre » pendant quelques semaines au cours de leur année chargée – surtout s’ils le font en Espagne.

3–4 minutes

En plus de tout cela, la nouvelle réglementation désormais en vigueur porte non seulement atteinte à la vie privée, mais crée également un « chaos » dans les hôtels.

Selon certaines informations , les touristes seraient victimes d’un nouveau système d’enregistrement « défaillant » qui les laisse bloqués à la réception, parfois pendant plus d’une heure – juste pour avoir le « privilège » de fournir ce qu’ils prétendent être « une gamme complète » d’informations personnelles.

Les règles en question ont été annoncées en décembre et, disons simplement, l’expérience de s’enregistrer dans un hôtel en Espagne – ou de louer une voiture là-bas – n’est plus ce qu’elle était.

Le gouvernement de Madrid a décidé que les hôtels et les locations de voitures devront désormais collecter 31 informations personnelles auprès des clients, et remplir un formulaire.

Il s’agit notamment des adresses personnelles et électroniques, des numéros de téléphone, des comptes bancaires, des relations avec les enfants avec lesquels ils voyagent, du nombre de personnes dans leur groupe et de dizaines d’autres points de données sensibles.

La justification donnée par le gouvernement espagnol aux « contrôles Big Brother » est la nécessité de « réprimer le crime organisé ».

Le problème avec le nouveau système – qui serait jusqu’à présent le seul de ce genre en Europe – est multiple : il y a le problème de la confidentialité, il y a la confusion des touristes sur la manière de se conformer, il y a ceux qui refusent de le faire – et le système informatique qui est censé mettre en œuvre le système est apparemment de qualité inférieure.

Non seulement il est sujet aux pannes, mais pour une raison quelconque, il ne peut pas être utilisé avant 5 heures du matin.

« Un véritable désastre », c’est ainsi que Maria Gibert, de la société de location touristique Habtur, l’a décrit.

Les associations d’entreprises du secteur du tourisme, un secteur important de l’économie espagnole, ont prévenu que ce scénario exact se produirait une fois les nouvelles règles entrées en vigueur, mais cela n’a apparemment pas attiré l’attention du gouvernement.

Voici une hypothèse « amusante » : une proposition pourrait éventuellement être formulée pour introduire le balayage biométrique afin de se débarrasser de ces temps d’attente et autres problèmes logistiques (qui ont maintenant été créés, sans raison apparente).

Liste complète des 42 informations que l’Espagne souhaite collecter auprès des touristes :

  • Adresse de résidence (rue, numéro)
  • Chambre attribuée
  • Adresse de l’entreprise
  • Entreprise pour laquelle vous travaillez
  • Date de naissance du compagnon
  • Adresse e-mail du compagnon
  • Numéro d’identification du compagnon
  • Nationalité du compagnon
  • Lieu de résidence du compagnon
  • Signature du compagnon
  • Numéro de téléphone fixe de contact
  • Numéro de téléphone mobile de contact
  • Pays de résidence habituelle
  • Date d’expiration de la carte de crédit
  • Numéro de Carte de Crédit
  • Date et heure d’enregistrement à l’hôtel
  • Date de délivrance du document
  • Date de naissance
  • Préférences alimentaires
  • Adresse email
  • Date et heure de départ prévues
  • Date d’expiration du document
  • Genre
  • Signature de l’invité
  • Numéro de pièce d’identité
  • Code IBAN (International Bank Account Number) du compte bancaire (si un virement est effectué)
  • État matrimonial
  • Commune de résidence
  • Nom et prénom
  • Nom du compagnon
  • Nationalité
  • Profession ou activité professionnelle
  • Mode de paiement utilisé (espèces, carte, virement)
  • Lieu de naissance
  • Lieu de délivrance du document
  • Code postal de résidence
  • Province de résidence
  • But du voyage
  • Relation entre voyageurs
  • Besoins spéciaux ou exigences médicales
  • Type de document d’identité (DNI, passeport)
  • Détails du véhicule (si vous arrivez en voiture) : plaque d’immatriculation

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

La technologie de reconnaissance faciale resserre tranquillement son emprise sur les lieux de rassemblement.

Ce mouvement a pris de l’ampleur avec la pandémie, la pandémie étant « l’excuse parfaite » – mais il ne s’est pas arrêté avec la pandémie. La prolifération de la reconnaissance faciale dans les lieux de sport et autres lieux de rassemblement se poursuit aux États-Unis et dans le monde entier.

2–3 minutes

Une équipe de baseball américaine, les Brewers de Milwaukee, a annoncé que deux portes de son stade allaient être équipées de la technologie de reconnaissance faciale pour la saison 2019. Il s’agit clairement d’un essai, l’utilisation de « portes sélectives » étant pour l’instant facultative.

À l’heure actuelle, la franchise n’a même pas envie de divulguer les politiques de protection des données personnelles et de traitement des informations personnelles qu’elle a mises en place pour ceux qui choisissent de franchir les « portes biométriques ».

Et à part ça, cela se produira en 2025 – les fans ne savent toujours pas exactement quand ils pourront s’attendre à devenir, c’est-à-dire choisir de devenir les sujets de la reconnaissance faciale.

Malgré les nombreuses controverses entourant les systèmes alimentés par des données biométriques dans les lieux publics – ces craintes étant fondées sur des raisons de confidentialité, mais aussi de sécurité – l’argument clé en faveur, présenté par ceux qui mettent en œuvre la technologie, est toujours le même : une commodité plus immédiate.

Et il n’est pas exagéré de supposer qu’ils comptent sur le fait que la plupart des « gens ordinaires » à l’heure actuelle ne sont toujours pas conscients des conséquences potentielles à long terme de la divulgation de leurs données sensibles en échange d’une « simplification de l’entrée » dans un stade et d’une « réduction des temps d’attente ».

Cela s’annonce comme une version moderne du précédent historique de « l’or contre des miroirs ». (Spoiler : ça ne s’est pas bien terminé du tout, pour ceux qui ont eu les miroirs.)

Cette fois, les Européens sont également touchés : des rapports indiquent qu’un certain nombre d’enceintes sportives, dont le stade Tottenham Hotspur à Londres, mettent en œuvre une technologie similaire.

Pour une raison ou une autre, ceux qui favorisent ces implémentations ont fortement tendance à opter pour des endroits où transitent de nombreuses personnes, comme les stades, mais aussi les aéroports.

Aux États-Unis, ce dernier scénario suscite désormais l’attention du ministère de la Sécurité intérieure, qui étudie la manière dont la TSA utilise – et étend – la reconnaissance faciale.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le milieu culturel craint les effets de l’IA sur la création

La création culturelle est-elle menacée par le développement de l’intelligence artificielle ? La question a fait débat samedi à Paris, en amont du Sommet sur l’IA.

3–4 minutes

Le musicien Jean-Michel Jarre s’est fait le porte-parole de ce mouvement de contestation lors d’une table ronde à la Bibliothèque nationale de France (BnF).

Après avoir ironisé sur OpenAI, l’entreprise derrière ChatGPT, en déclarant qu’elle avait «découvert le droit d’auteur avec DeepSeek», son rival chinois qu’elle soupçonne de lui voler des technologies, l’artiste a mis en cause le géant suédois du streaming Spotify.

Selon lui, la plateforme, accusée dans l’enquête d’une journaliste américaine de glisser de «faux artistes» parmi ses playlists de musique d’ambiance, aurait un «rêve»: «Ce serait de se passer des artistes. Ça fait un moment que ça couve. Spotify, c’est un peu le Dark Vador de la musique», a-t-il accusé.

Interrogée, l’entreprise a de son côté assuré avoir «toujours eu à cœur de soutenir la croissance et le développement des artistes». «Nous sommes donc fiers du chemin parcouru et restons farouchement engagés à la découverte et à la croissance de l’industrie musicale enregistrée», a ajouté un porte-parole du groupe, en rappelant les 10 milliards de dollars reversés aux ayants droit rien qu’en 2024.

Plus généralement se pose aussi la question de l’utilisation de l’IA, qui génère textes, images, sons ou vidéos, en s’inspirant parfois d’œuvres protégées par le droit d’auteur.

«Je parle de pillage», a insisté Cécile Rap-Veber, la directrice générale de la Sacem, qui protège les droits des musiciens, pour refuser l’euphémisme de «moissonnage» employé dans le même débat.

«Pollueurs»

Elle a dénoncé un autre méfait: la voracité énergétique de ces entreprises pour faire tourner leurs serveurs informatiques. «Comme pollueurs, c’est difficile de trouver pire», a-t-elle accusé.

Son homologue du spectacle vivant, Pascal Rogard, pour la Société des auteurs et compositeurs dramatiques (SACD), a aussi eu le sens de la formule: «Je suis très content que hier [vendredi], notre président ait dit que l’IA ne doit pas être le Far West. On n’est pas chez les Trump, ici».

Emmanuel Macron a utilisé les termes de «Far West» dans la presse régionale. «La France continuera d’avoir une voix claire, c’est-à-dire celle qui protège la spécificité du génie, du talent, la reconnaissance des droits, de cette propriété», y a-t-il déclaré.

Après avoir vu plus d’une évolution technologique depuis l’apparition des synthétiseurs dans les années 1960, Jean-Michel Jarre a lui estimé qu’»il y a un gâteau, avant même que ces entreprises fassent des bénéfices, qui est leur valorisation». «Et la culture doit en toucher une part», a-t-il expliqué.

«Nos amis dans cette salle», a-t-il poursuivi en regardant les entrepreneurs de l’IA, «ont compris qu’on est très bien armés, avec notre bande, non pas pour lutter, mais pour être rémunérés».

Autorisation, rémunération, transparence

Une juriste experte de ces questions, l’universitaire Alexandra Bensamoun, a de son côté décomposé les lettres du mot art en trois impératifs. «Autorisation»: demander la permission aux créateurs d’œuvres et respecter leur droit d’opposition («opt-out»). «Rémunération» pour les artistes. Et «transparence» dans les bases de données utilisées pour entraîner les machines.

«Ce n’est pas de moi, il n’y a pas de droits d’auteur», a-t-elle précisé. Parmi les personnalités interpellées figurait une Française installée en Californie, Fidji Simo.

«Nous voulons vraiment nous assurer, du côté des entreprises d’IA – et je suis membre du conseil d’administration d’OpenAI –, de rémunérer les artistes de manière juste pour leur travail», a-t-elle affirmé.

En ouverture de ce «week-end culturel», la ministre de la Culture, Rachida Dati, a pour sa part annoncé «une concertation nationale sur l’émergence d’un marché éthique respectueux du droit d’auteur», destinée à nourrir les travaux menés au niveau européen sur la mise en œuvre du Règlement sur l’IA qui a commencé à entrer en vigueur le 2 février.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Des procureurs français enquêtent sur l’X d’Elon Musk pour un prétendu biais algorithmique

PARIS, 7 février (Reuters) – Le parquet français a annoncé vendredi avoir ouvert une enquête sur la plateforme de médias sociaux X d’Elon Musk pour des soupçons de biais algorithmiques.

2–3 minutes

La nouvelle de l’enquête intervient quelques jours avant un sommet majeur sur l’IA à Paris , qui doit accueillir des dirigeants mondiaux, dont le vice-président américain JD Vance et le Premier ministre indien Narendra Modi, ainsi qu’Alphabet (GOOGL.O)., ouvre un nouvel ongletet Microsoft (MSFT.O), ouvre un nouvel onglet cadres.

Le parquet de Paris a indiqué avoir lancé l’enquête après avoir été contacté le 12 janvier par un député alléguant que des algorithmes biaisés dans X étaient susceptibles d’avoir faussé le fonctionnement d’un système automatisé de traitement de données.

X, anciennement connu sous le nom de Twitter, n’a pas répondu à une demande de commentaire.

L’enquête souligne la méfiance croissante à l’égard du pouvoir de X, le nom donné à Twitter par le milliardaire technologique Musk après avoir acheté le réseau social.

Musk a utilisé X pour soutenir personnellement des partis et des causes d’extrême droite dans des pays comme l’Allemagne et la Grande-Bretagne, ce qui suscite des inquiétudes quant à une ingérence étrangère indue.

Le député centriste français Eric Bothorel, publiant sur X, a déclaré avoir écrit à l’unité de cybercriminalité J3 du parquet de Paris pour lui faire part de ses inquiétudes quant au fait que X utilise des algorithmes biaisés, selon un rapport de Franceinfo.

« Les procureurs et les assistants spécialisés de la brigade de cybercriminalité sont en train de l’analyser et de procéder à des premières vérifications techniques », a indiqué le parquet de Paris dans un courriel adressé à Reuters.

« J’ai envoyé une lettre au parquet cyber J3 à ce sujet le 12 janvier », a écrit Bothorel sur X.

L’unité J3 du parquet de Paris a mené l’an dernier l’enquête sur le patron de Telegram, Pavel Durov , arrêté après son atterrissage à l’aéroport parisien. Durov, qui a été libéré sous caution, nie les accusations, mais Telegram a depuis déclaré qu’elle coopérait plus étroitement avec la police pour supprimer les contenus illégaux.

L’unité J3 a montré sa volonté d’utiliser des lois nouvelles et agressives pour cibler les propriétaires de grandes plateformes.

a été bloqué pendant plus d’un mois au Brésil l’année dernière pour ne pas avoir réussi à arrêter la propagation de la désinformation, avant de finalement se conformer à une ordonnance de la Cour suprême qui a permis le rétablissement du réseau.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le gouvernement britannique ordonne secrètement à Apple de créer une porte dérobée mondiale pour iCloud, menaçant ainsi la confidentialité numérique dans le monde entier

L’extrémisme du gouvernement britannique constitue une menace mondiale pour la vie privée, selon un nouveau rapport.

4–6 minutes

Imaginez-vous vous réveiller un matin et découvrir que votre gouvernement a exigé la clé principale de tous les verrous numériques d’iPhone sur Terre, sans en parler à personne. C’est exactement ce que les responsables de la sécurité britannique ont tenté de faire, en ordonnant secrètement à Apple de créer une porte dérobée dans iCloud qui leur permettrait de décrypter les données de n’importe quel utilisateur, n’importe où dans le monde. Oui, pas seulement les criminels présumés, pas seulement les citoyens britanniques, mais tout le monde. Et ils ne veulent même pas qu’Apple en parle.

Cette opération autoritaire à couper le souffle, dont le Washington Post a été le premier à rendre compte , est l’une des tentatives les plus agressives de démantèlement de la vie privée numérique jamais entreprise par une soi-disant démocratie occidentale. C’est le genre de chose que l’on attendrait d’un régime qui affiche le visage de son dirigeant à chaque coin de rue, pas d’un pays qui prétend encore croire aux libertés civiles.

Il ne s’agit pas d’attraper un seul terroriste ou de résoudre une seule affaire. Non, ce décret, émis en secret le mois dernier par le gouvernement travailliste de Keir Starmer, exige des capacités de décryptage universelles, transformant de fait Apple en une branche de surveillance du gouvernement britannique. Oubliez les mandats, oubliez la surveillance, oubliez même le prétexte d’enquêtes ciblées. Si ce décret était respecté, les autorités britanniques auraient le pouvoir de fouiller à volonté le compte iCloud de n’importe qui, sans aucune justification requise.

Les responsables qui poussent à cette monstruosité se cachent derrière la loi britannique sur les pouvoirs d’enquête de 2016, une loi si orwellienne qu’elle est affectueusement appelée la « Charte des espions ». Cette mesure législative excessive oblige les entreprises technologiques à se conformer aux demandes d’espionnage du gouvernement tout en rendant illégale la divulgation de telles demandes. C’est le rêve de l’État de surveillance : un pouvoir illimité, aucune responsabilité.

Apple, à son honneur, n’a pas encore cédé. Au lieu de se transformer en informateur pour le MI5, l’entreprise envisagerait de retirer complètement le stockage crypté iCloud du Royaume-Uni. En d’autres termes, les utilisateurs britanniques pourraient perdre une fonctionnalité de sécurité majeure parce que leur gouvernement est déterminé à jouer les dictateurs numériques.

Mais cela ne suffit pas aux autorités britanniques, qui ne réclament pas seulement l’accès aux comptes britanniques. Elles veulent une clé squelette pour les données iCloud dans le monde entier, y compris aux États-Unis. C’est vrai : les services de renseignement britanniques, dans une démonstration stupéfiante d’abus de pouvoir, tentent de forcer une entreprise américaine à compromettre les utilisateurs américains sur le sol américain.

Techniquement, Apple a le droit de contester cette ordonnance. Mais, dans une véritable dystopie, sa seule option est de plaider sa cause devant un panel technique secret, qui déterminera ensuite si la demande est trop onéreuse. Si cela ne fonctionne pas, Apple peut saisir un juge, qui décidera si la demande est « proportionnée » aux besoins du gouvernement. Car s’il y a une chose que l’on sait de la surveillance gouvernementale, c’est qu’elle est toujours raisonnable et mesurée.

Pendant ce temps, Apple a refusé de commenter, probablement parce que cela constituerait un délit pénal en vertu de la loi britannique. C’est vrai : le simple fait d’évoquer cette demande pourrait attirer des ennuis judiciaires chez les dirigeants d’Apple. Rien ne crie plus haut « société libre » que la menace d’une peine de prison pour avoir évoqué les excès de pouvoir du gouvernement.

Le problème est le suivant : même si Apple contestait cette exigence draconienne, cela n’aurait aucune importance. La loi exige une mise en conformité immédiate, ce qui signifie que même si Apple conteste l’ordonnance, elle serait quand même obligée de remettre les clés entre-temps. C’est l’équivalent juridique d’être contraint de purger une peine de prison tout en faisant appel de sa condamnation. Lorsque les tribunaux prennent une décision, le mal est déjà fait.

Apple a eu le mérite d’avoir vu venir ce cauchemar orwellien. L’année dernière, elle a explicitement averti les législateurs britanniques qu’une telle demande ne serait rien de moins qu’une atteinte à la vie privée à l’échelle mondiale. L’entreprise a clairement fait connaître sa position :

« Il n’y a aucune raison pour que le gouvernement britannique ait le pouvoir de décider pour les citoyens du monde s’ils peuvent bénéficier des avantages avérés en matière de sécurité qui découlent du chiffrement de bout en bout. »

En d’autres termes : pour qui se prend-elle ? Le gouvernement britannique, dans sa grande sagesse, croit apparemment qu’il devrait avoir le pouvoir de déterminer comment fonctionne le cryptage pour tout le monde, partout, et pas seulement dans son propre pays. Car pourquoi se limiter à la surveillance quand on peut avoir une surveillance mondiale ?

Bien sûr, lorsqu’on l’a interrogé sur cette prise de pouvoir incroyablement audacieuse, le ministère de l’Intérieur britannique a eu recours à la porte de sortie préférée des bureaucrates : refuser de confirmer ou de nier la réalité elle-même.

« Nous ne faisons aucun commentaire sur les questions opérationnelles, y compris par exemple en confirmant ou en niant l’existence de tels avis. »

En d’autres termes, « nous n’admettrons pas que nous exigeons cela, mais nous ne le nierons pas non plus ». Car pourquoi être transparent quand on peut laisser le public dans l’incertitude ?

Lire la suite de l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Des ONG soutenues par l’UE intentent une action en justice pour forcer X à partager les données des utilisateurs, soulevant de nouvelles inquiétudes concernant la censure en ligne.

Les élections anticipées en Allemagne approchent à grands pas, et les élites des partis composant le gouvernement intérimaire (mais pas seulement) continuent de faire preuve d’un comportement très conflictuel, X et Elon Musk étant leurs cibles favorites.

2–3 minutes

Nous avons maintenant deux ONG – la Society for Civil Rights (GFF) et Democracy Reporting International (DRI) – qui poursuivent X en justice pour avoir prétendument refusé de divulguer ses données, qui les auraient aidées à « traquer la désinformation électorale ».

Les deux groupes citent la loi européenne sur la censure en ligne (DSA), affirmant que X la viole en retenant les données auxquelles ils demandent l’accès.

Le GFF et le DRI ont au moins une chose en commun : selon leurs sites Web, les fondations Open Society de George Soros font partie de leurs donateurs (dans le cas du DRI, il s’agit de son adhésion au réseau du Partenariat européen pour la démocratie (EPD).

Mais la principale source de financement du DRI est de loin la Commission européenne, avec 5,7 millions d’euros rien qu’en 2023.

En ce qui concerne GFF, le groupe décrit ses activités comme la surveillance des élections dans le monde entier, ainsi que la « surveillance » des médias sociaux concernant la « désinformation électorale » – avec des bureaux à Berlin, au Liban, en Libye, au Myanmar, au Pakistan, au Sri Lanka, en Tunisie et en Ukraine.

En plus de recevoir de l’argent de la part de l’organisation Soros, le GFF a également été financé, entre autres, par le Fonds européen d’intelligence artificielle (spécifiquement pour « le travail sur le DSA ») – mais aussi, curieusement, par la Fondation Mozilla – et cette subvention va au cœur du procès qui vient d’être annoncé.

La Fondation Mozilla s’est sentie généreuse avec son argent (dont une grande majorité provenait de Google, via un accord avec un moteur de recherche) afin de « soutenir (GFF) dans l’application de l’accès aux données de recherche basé sur le DSA ».

Si vous pensez que cela suscite la réflexion, que pensez-vous de ceci : DuckDuckGo est également répertorié comme donateur sur le site officiel de GFF.

Et maintenant, passons au procès.

« D’autres plateformes nous ont accordé l’accès pour suivre systématiquement les débats publics sur leurs plateformes, mais X a refusé de le faire », a déclaré Michael Meyer-Resende (DRI).

Pendant ce temps, Simone Rug de GFF a partagé avec les médias sa conviction que le procès est « important » – et a ensuite « réinventé la roue » qui tourne depuis au moins huit ans : « Les plateformes sont de plus en plus utilisées comme armes contre les élections démocratiques. »

Ruf se débrouillait très bien, mais il ajouta, de manière révélatrice pour l’époque : « Nous devons nous défendre. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le gouvernement britannique accélère l’adoption d’un projet de loi visant à surveiller les comptes bancaires, à révoquer les permis et à perquisitionner les logements

Les critiques avertissent que le projet de loi pourrait transformer le système de protection sociale en un réseau de surveillance financière géré par le gouvernement.

2–3 minutes

Le gouvernement britannique est accusé d’avoir tenté de faire adopter à toute vitesse au Parlement un projet de loi controversé, le Public Authorities (Fraud, Error & Recovery Bill). Les critiques affirment que le projet de loi contient des dispositions dystopiques de surveillance de type crédit social.

Le projet de loi de 116 pages a été présenté il y a seulement une semaine, ce qui a amené l’organisation de défense des droits de l’homme Big Brother Watch à conclure que les députés n’auront peut-être même pas assez de temps pour lire le texte avant de devoir commencer à en débattre.

Malgré son titre très civique, les opposants au projet de loi avertissent que, sous couvert d’empêcher le gaspillage massif de l’argent des contribuables par le biais de la fraude aux prestations sociales, il servirait également à mettre en place un système d’« espionnage de masse » des comptes bancaires, mené par le gouvernement (le ministère du Travail et des Retraites, DWP).

Cela comprend la surveillance constante des relevés bancaires des personnes, la possibilité de révoquer les permis de conduire et de fouiller les locaux, les ordinateurs et autres appareils.

Le système de protection sociale britannique se transformerait ainsi en « un système de surveillance numérique (…) avec des intrusions dans la vie privée sans précédent », a déclaré Silkie Carlo, directrice de Big Brother Watch.

D’autre part, le DWP affirme que même s’il aura accès aux relevés bancaires appartenant aux comptes ciblés comme fraudeurs du système de prestations sociales, et pourra faire prélever de l’argent sur ces comptes, il n’aura pas « d’accès direct aux comptes réels ».

C’est une maigre consolation, suggèrent les groupes de protection de la vie privée, puisque la loi s’étend ensuite à l’obligation pour les banques et les sociétés de construction de soumettre des rapports sur les fraudes présumées, ce qui permettra aux enquêteurs du DWP d’exercer leur nouvelle capacité à demander des mandats de perquisition, puis, avec la police, à effectuer des perquisitions, notamment dans les maisons et les appareils.

Il semble qu’il s’agisse d’un autre exemple d’un système « à deux vitesses » au Royaume-Uni, lié cette fois au système judiciaire – du moins à en juger par l’interprétation de Carlo.

Elle craint que, d’un côté, les couches les plus à risque de la société – les personnes âgées, les pauvres et les handicapés – soient privées du droit d’être entendues par les tribunaux et deviennent plus vulnérables à des « sanctions erronées », ce qui aurait des conséquences catastrophiques pour leur situation financière.

D’autre part, Carlo a déclaré que ces dispositions représentent « des intrusions dans la vie privée et des sanctions totalement sans précédent qui porteront plus atteinte aux valeurs fondamentales britanniques d’équité et de justice qu’aux fraudeurs les plus graves ».

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

La loi européenne sur l’IA légalise la surveillance biométrique de masse

L’UE n’est pas le modèle de protection de la vie privée qu’elle prétend être.

2–3 minutes

Le 2 février, la  première date limite de mise en conformité avec la loi sur l’intelligence artificielle de l’UE , entrée en vigueur en août, a été atteinte. Il s’agit de dispositions qui contiennent des règles permettant à l’Union de légaliser la surveillance biométrique de masse.

Cela se produit par le biais de  l’article 5 , qui cherche à première vue à introduire des protections contre l’utilisation de systèmes d’IA qui représentent un « risque inacceptable ». Mais il existe également des exceptions à cette règle, définies dans la loi comme les cas « strictement nécessaires » où l’utilisation de ces mêmes systèmes est autorisée.

C’est ce qui a fait naître la crainte que l’une des conséquences de la loi sur l’IA soit de légaliser certains déploiements très controversés de surveillance de masse alimentée par des données biométriques.

L’article 5 interdit aux forces de l’ordre d’utiliser des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, mais seulement « à moins que et dans la mesure où une telle utilisation est strictement nécessaire ».

Les cas « strictement nécessaires » sont décrits comme ceux où les forces de l’ordre recherchent des « victimes spécifiques » de crimes tels que l’enlèvement, la traite et l’exploitation sexuelle, mais aussi lorsqu’elles recherchent des personnes disparues.

La deuxième définition est moins précise dans sa portée, car elle permet d’utiliser des systèmes de surveillance par IA pour prévenir la criminalité. Cela inclut une menace à la vie ou à la sécurité physique des individus considérée comme « spécifique, substantielle et imminente » – ou une menace d’attaque terroriste que les forces de l’ordre jugent « réelle et présente » mais aussi « réelle et prévisible ».

Enfin, la loi sur l’IA considère comme « strictement nécessaires » pour exempter des activités d’IA interdites les activités suivantes : « Localisation ou identification d’une personne soupçonnée d’avoir commis une infraction pénale, aux fins de mener une enquête ou des poursuites pénales ou d’exécuter une sanction pénale pour des infractions. »

Ces infractions sont mentionnées à l’annexe II et sont punies dans les pays membres de l’UE pour une durée maximale d’au moins quatre ans.

En d’autres termes, de nombreux scénarios et interprétations « strictement nécessaires » permettant une surveillance biométrique de masse peuvent être dérivés de ces règles.

Pour faciliter l’application de la loi, l’UE a élaboré son « Pacte sur l’IA » – un autre des « engagements volontaires » du bloc signés par plus de 100 entreprises, dont Amazon, Google et OpenAI – mais pas par Meta et Apple.

Certains observateurs notent que les entreprises critiques à l’égard de la loi attendent de la clarté concernant les normes et les lignes directrices.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Pente glissante : un nouveau projet de loi oblige les FAI à bloquer les sites pirates

Le projet de loi pourrait conduire à un blocage généralisé de sites, malgré les allégations de protection de l’Internet ouvert.

2–3 minutes

La députée Zoe Lofgren, qui siège au Comité de la science, de l’espace et de la technologie de la Chambre des représentants et au Sous-comité de la Chambre des représentants sur les tribunaux, la propriété intellectuelle, l’IA et Internet, lance une nouvelle bataille dans la « guerre contre le piratage ».

L’intention déclarée derrière le projet de loi qu’elle a présenté – HB 791 – est censée être évidente d’après son nom : la loi anti-piratage numérique étranger (Foreign Anti-Digital Piracy Act, FADPA).

Nous avons obtenu une copie de la facture pour vous ici .

Et Lofgren insiste sur le fait que cette loi protégera à la fois les consommateurs, la communauté créative et les travailleurs américains du piratage Internet étranger et « préservera l’Internet ouvert ». Mais certains craignent que si elle devenait loi, la loi HB pourrait ouvrir la voie au blocage massif de sites .

Depuis l’échec de la très controversée loi SOPA (Stop Online Piracy Act) il y a plus de dix ans, la FADPA est la première fois que les législateurs américains tentent de réexaminer la question de la violation du droit d’auteur. Ironiquement, Lofgren s’était opposée à la SOPA à l’époque, mais elle estime aujourd’hui que sa proposition est meilleure.

Lofgren, une démocrate californienne, a déclaré avoir travaillé « en étroite collaboration » avec Hollywood pour rédiger le projet de loi, qui permettrait aux détenteurs de droits d’auteur de forcer les FAI à bloquer les sites accusés d’héberger des flux pirates.

La manière dont cela pourrait se dérouler dans le monde réel (cette fois-ci, sur Internet) est une autre affaire. Si l’on en croit le célèbre Digital Millennium Copyright Act (DMCA), la crainte d’abus, puisque les titulaires de droits d’auteur peuvent supprimer des contenus, y compris dans les cas où les avis sont faux, ne semble pas infondée.

Certains observateurs considèrent que la FADPA est encore plus imparfaite, en ce sens, que le DMCA.

Mais le projet de loi a été présenté après plusieurs mois de négociations entre les entreprises technologiques et ceux qui produisent du contenu, dans le but de garantir sa constitutionnalité et son applicabilité, mais aussi pour qu’il n’impose pas de « responsabilités indues ».

Sans surprise, le projet de loi a reçu le soutien de la Motion Picture Association (MPA), de l’Authors Guild, de l’Independent Film & Television Alliance (IFTA), de l’International Alliance of Theatrical Stage Employees (IATSE), de la Copyright Alliance, de la Screen Actors Guild (SAG-AFTRA), ainsi que de l’Information Technology and Innovation Foundation (ITIF).

La députée Lofgren espère « continuer à travailler » sur la législation anti-piratage avec les républicains de la Chambre.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Les images d’abus sexuels sur mineurs générées par l’IA sont visées par de nouvelles lois

Quatre nouvelles lois viseront à lutter contre la menace des images d’abus sexuels sur mineurs générées par l’intelligence artificielle (IA), a annoncé le gouvernement.

4–6 minutes

Le ministère de l’Intérieur a déclaré que le Royaume-Uni serait le premier pays au monde à rendre illégale la possession, la création ou la distribution d’outils d’IA conçus pour créer du matériel d’abus sexuel sur mineur (CSAM), avec une peine pouvant aller jusqu’à cinq ans de prison.

La possession de manuels pédophiles basés sur l’IA – qui enseignent aux gens comment utiliser l’IA pour commettre des abus sexuels – sera également rendue illégale, et les contrevenants seront passibles d’une peine allant jusqu’à trois ans de prison.

« Ce que nous constatons, c’est que l’IA dope désormais la maltraitance des enfants en ligne », a déclaré la ministre de l’Intérieur Yvette Cooper à l’émission Sunday with Laura Kuenssberg de la BBC.

Cooper a déclaré que l’intelligence artificielle « industrialisait l’ampleur » des abus sexuels contre les enfants et que les mesures gouvernementales « pourraient devoir aller plus loin ».

D’autres lois devraient être introduites, notamment celle qui rendrait punissable la gestion de sites Internet sur lesquels des pédophiles peuvent partager des contenus pédophiles ou donner des conseils sur la manière de manipuler les enfants. Cette infraction serait passible d’une peine pouvant aller jusqu’à 10 ans de prison.

La police des frontières sera également habilitée à ordonner aux personnes soupçonnées de présenter un risque sexuel pour les enfants de déverrouiller leurs appareils numériques pour inspection lorsqu’elles tentent d’entrer au Royaume-Uni, car les images d’abus sexuels sur mineurs sont souvent filmées à l’étranger. Selon la gravité des images, cette infraction sera passible d’une peine pouvant aller jusqu’à trois ans de prison.

Les images d’abus sexuels sur mineurs générées artificiellement sont des images générées en partie ou entièrement par ordinateur. Un logiciel peut « rendre inutilisables » les images réelles et remplacer le visage d’un enfant par celui d’un autre, créant ainsi une image réaliste.

Dans certains cas, les voix réelles d’enfants sont également utilisées, ce qui signifie que des survivants innocents d’abus sont à nouveau victimisés.

De fausses images sont également utilisées pour faire chanter les enfants et forcer les victimes à subir de nouveaux abus.

L’Agence nationale de lutte contre la criminalité (NCA) a déclaré que 800 arrestations étaient effectuées chaque mois en lien avec des menaces proférées contre des enfants en ligne. Elle a déclaré que 840 000 adultes constituent une menace pour les enfants à l’échelle nationale – en ligne et hors ligne – ce qui représente 1,6 % de la population adulte.

Cooper a déclaré : « Il y a des auteurs qui utilisent l’IA pour les aider à mieux préparer ou faire chanter des adolescents et des enfants, en déformant les images et en les utilisant pour inciter les jeunes à subir d’autres abus, ce qui provoque des choses encore plus horribles et devient également plus sadique. »

Elle a poursuivi : « C’est un domaine dans lequel la technologie ne s’arrête pas et notre réponse ne peut pas s’arrêter pour assurer la sécurité des enfants. »

Certains experts estiment cependant que le gouvernement aurait pu aller plus loin.

La professeure Clare McGlynn, experte en matière de réglementation juridique de la pornographie, de la violence sexuelle et des abus en ligne, a déclaré que les changements étaient « bienvenus » mais qu’il existait « des lacunes importantes ».

Le gouvernement devrait interdire les applications de « nudification » et s’attaquer à la « normalisation de l’activité sexuelle avec des filles d’apparence jeune sur les sites pornographiques grand public », a-t-elle déclaré, décrivant ces vidéos comme des « vidéos simulées d’abus sexuels sur des enfants ».

Ces vidéos « impliquent des acteurs adultes mais ils ont l’air très jeunes et sont montrées dans des chambres d’enfants, avec des jouets, des nattes, des appareils dentaires et d’autres signes de l’enfance », a-t-elle déclaré. « Ce matériel peut être trouvé avec les termes de recherche les plus évidents et légitime et normalise les abus sexuels sur mineurs. Contrairement à de nombreux autres pays, ce matériel reste légal au Royaume-Uni. »

L’Internet Watch Foundation (IWF) prévient que de plus en plus d’images d’abus sexuels sur des enfants sont produites par l’IA, et qu’elles deviennent de plus en plus courantes sur le Web ouvert.

Les dernières données de l’association montrent que les signalements de CSAM générés par l’IA ont augmenté de 380 %, avec 245 signalements confirmés en 2024 contre 51 en 2023. Chaque rapport peut contenir des milliers d’images.

L’année dernière, une étude a révélé que sur une période d’un mois, 3 512 images d’abus et d’exploitation sexuelle d’enfants ont été découvertes sur un site Web sombre. Par rapport au mois de l’année précédente, le nombre d’images de la catégorie la plus grave (catégorie A) a augmenté de 10 %.

Les experts affirment que les images CSAM générées par l’IA peuvent souvent paraître incroyablement réalistes, ce qui rend difficile de distinguer le vrai du faux.

Le directeur général par intérim de l’ IWF, Derek Ray-Hill, a déclaré : « La disponibilité de ce contenu d’IA alimente davantage la violence sexuelle contre les enfants.

« Cela encourage les agresseurs et rend les enfants plus vulnérables. Il reste certainement beaucoup à faire pour empêcher l’exploitation de la technologie de l’IA, mais nous saluons cette annonce et pensons que ces mesures constituent un point de départ essentiel. »

Lynn Perry, directrice générale de l’association caritative pour les enfants Barnardo’s, a salué l’action du gouvernement pour lutter contre le matériel d’abus d’enfants produit par l’IA, « qui normalise les abus envers les enfants, mettant davantage d’entre eux en danger, en ligne et hors ligne ».

« Il est essentiel que la législation suive le rythme des avancées technologiques pour prévenir ces crimes horribles », a-t-elle ajouté.

« Les entreprises technologiques doivent s’assurer que leurs plateformes sont sûres pour les enfants. Elles doivent prendre des mesures pour introduire des mesures de protection plus strictes, et l’Ofcom doit veiller à ce que la loi sur la sécurité en ligne soit mise en œuvre de manière efficace et rigoureuse. »

Les nouvelles mesures annoncées seront introduites dans le cadre du projet de loi sur la criminalité et la police lorsqu’il sera présenté au Parlement dans les prochaines semaines.

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire

Le gouverneur britannique renforce la censure et accuse le contenu en ligne d’être responsable des meurtres de Southport

Les autorités poussent les géants de la technologie à censurer le contenu, contournant ainsi les préoccupations concernant la liberté de la presse et la préservation des preuves.

2–3 minutes

Le gouvernement britannique continue d’utiliser les meurtres de Southport l’année dernière , qui ont conduit à des manifestations généralisées, pour promouvoir la censure en ligne, comme une prétendue panacée aux maux de la société.

La ministre de l’Intérieur Yvette Cooper et le secrétaire d’État à la Science, à l’Innovation et à la Technologie Peter Kyle ont récemment écrit à X, Meta, TikTok, Google (et YouTube) pour leur demander de supprimer le « matériel violent » auquel le tueur de trois enfants, Axel Rudakubana, a pu accéder avant de commettre son crime.

Les enquêteurs ont déclaré que parmi ces documents figuraient une étude universitaire d’un manuel de formation utilisé par les membres d’Al-Qaïda et une vidéo de l’attaque en Australie contre l’évêque Mari Emmanuel.

Cooper et Kyle ont déclaré aux entreprises technologiques que la « possession » de ce matériel est illégale selon la législation antiterroriste du Royaume-Uni, mais qu’il était « facilement accessible » à Rudakubana et continue de l’être à d’autres.

Les deux responsables ont également déclaré à ces entreprises que leur responsabilité de supprimer ce contenu était « morale ».

Le même argument a été avancé par la chancelière de l’Échiquier britannique Rachel Reeves, qui a déclaré à la BBC que même si la loi sur la censure – Online Safety Act – qui obligerait à supprimer ces contenus sera en vigueur à partir de mars, « rien n’empêche les entreprises de supprimer ces contenus dès maintenant. Elles ont la responsabilité morale de le faire. »

Aucun de ces responsables n’a cependant abordé la question des dangers liés à la suppression de vidéos montrant un contenu violent qui mérite d’être publié ou qui pourrait être utilisé comme preuve, par exemple, d’un abus de pouvoir de la police, d’une incapacité à réagir correctement lors d’événements violents, mais aussi pour les exonérer de fausses accusations (comme dans le cas récent de l’incident de l’aéroport de Manchester).

Beeban Kidron, connu pour être un partisan de la censure et de la vérification de l’âge en ligne et membre de la Chambre des Lords, s’est également exprimé au nom de la BBC pour se plaindre du fait que le précédent gouvernement conservateur avait bloqué la disposition de censure du « devoir de diligence » de l’Online Safety Act, et a reproché au cabinet travailliste actuel de « ne pas tenir les promesses qu’il avait faites dans l’opposition ».

Kidron a cependant omis de mentionner que le gouvernement précédent était, quel que soit le cas auquel elle faisait référence, très favorable à un renforcement de la censure en ligne.

Claire Fox, une autre membre de la Chambre des Lords, a réagi à la tendance à faire pression sur les plateformes pour qu’elles suppriment les « contenus extrêmes » ou « risquent un deuxième Southport » en quelques mots choisis publiés sur X :

« Il n’y a pas un seul problème – politique, culturel, économique, social – dont le gouvernement travailliste ne pense pas que la solution soit de mettre fin au débat. Leur mantra technocratique ennuyeux – qui ne cesse de se répéter – est « on ne peut pas dire ça ». Ce sont vraiment des scélérats macabres et censeurs. Méprisables. »

Voir l’article original cliquez ci-dessous :

Voir l’article

Aller à l’accueil

Laisser un commentaire